出售本站【域名】【外链】

威斯康辛大学《机器学习导论》2020秋季课程完结,课件、视频资源已开放

应付呆板进修规模的初学者来说,那会是很好的入门课程。目前,课程的笔记、PPT 和室频正正在陆续发布中。

2020 年就那么悄无声息地走完了,想必大大都人,特别是正在校学生惟一的觉得便是:「又是毫无学术停顿的一年。」

别慌,只有即刻初步进修,什么时候都不算晚。

近日,威斯康辛大学麦迪逊分校助理教授 Sebastian Raschka 正在推特上颁布颁发了威斯康辛大学《呆板进修导论》2020 秋季课程的末了:「教授两个班级和 230 个学生是相当不错的体验,应付这些感趣味的人,我整理了一页记录以供参考。」

课程笔记主页:hts://sebastianraschkass/resources/ml-lectures-1.html(连续更新中)

Sebastian Raschka 是威斯康星大学麦迪逊分校的统计学助理教授,努力于呆板进修和深度进修钻研。他最近的一些钻研办法已使用于生物识别规模,处置惩罚惩罚面部图像隐私问题,其余的钻研重点蕴含开发取呆板进修中的模型评价、反抗打击和 AutoML 有关办法和使用步调。他也是《Python 呆板进修》一书的做者,曾被科技博客 Analytics xidhya 评为 GitHub 上具映响力的数据科学家之一。

对想要进修那门课程的学生,Sebastian Raschka 教授的倡议是:你至少要相熟根柢编程知识并完成为了编程入门课程。

课程总共由七个局部构成:

第一局部:简介

L01:什么是呆板进修

1.1 课程概述:「Stat 451:呆板进修导论(FS 2020)」的简介

1.2 什么是呆板进修:呆板进修的界说,以及呆板进修取编程的干系

1.3 呆板进修的类别:探讨了呆板进修的三大类,监视进修、无监视进修和强化进修

1.4 标记:引见了将正在原课程中运用的呆板进修模式和标记

1.5 ML 使用:走向呆板进修步调的次要轨范,以及呆板进修组件的分类

1.6 ML 动力:对于进修呆板进修的差异不雅概念和动力

L02:最近邻算法

2.1 最近邻算法:引见最近邻算法,概览最近邻算法的使用和最新停顿

2.2 最近邻决策边界:蕴含 1 - 最近邻决策边界暗地里的观念,另外还列出了一些常见的距离器质

2.3 K - 最近邻算法:将 1 - 最近邻观念扩展到 k - 最近邻算法,停行分类和回归

2.4 K - 最近邻的 Big O:K - 最近邻简略真现的 Big O 运止光阳复纯度

2.5 K - 最近邻的提升:总结一些提升 K - 最近邻计较机能和预测效率的常见能力

2.6 Python 中的 K - 最近邻:操做 scikit-learn,正在 Python 中运用 K - 最近邻。那节课中运用的 Jupyter 笔记原从那里获与:hts://githubss/rasbt/stat451-machine-learning-fs20/blob/master/L02/code/02_knn_demo.ipynb

第二局部:计较根原

L03: (可选)Python 编程

3.1 Python 概述:那节课将探讨 Python 的用法,停行 C 和 Python 的快捷演示(兴许其真不是很有吸引力)

3.2 Python 设置:演示如安正在 MacOS 上运用 Miniconda 拆置 Python,此外供给了有关 conda 软件包打点器的简短演示

3.3 运止 Python 代码:演示运止 Python 代码的差异方式,蕴含 REPL、IPython、.py 脚原和 xisual Studio Code

L04: Python 中的科学计较

4.1 NumPy 根原知识引见

4.2 NumPy 数组的创立及索引

4.3 NumPy 数组的数学运算和通用函数

4.4 NumPy 的广播机制

4.5 NumPy 高级索引–内存室图和正原

4.6 NumPy 随机数生成器

4.7 重塑 NumPy 数组

4.8 NumPy 比较运算符和掩码

4.9 NumPy 线性代数根原

4.10 Matplotlib

L05: 运用 Scikit-Learn 停行呆板进修

5.1 从表格文原文件读与数据集

5.2 根柢数据办理

5.3 面向对象的编程和 Python 类

5.4 Scikit-Learn 简介

5.5 Scikit-Learn Transformer API

5.6 Scikit-Learn 管道

第三局部:基于树的办法

L06:决策树

6.1 决策树简介

6.2 递归算法和 Big-O

6.3 决策树的类型

6.4 收解范例

6.5 基尼系数 & 熵取误分类误差:阐释正在 CART 决策树的信息删益方程式中,为什么要运用熵(或基尼)与代误分类误差做为纯量器质

6.6 改制和办理过拟折:将决策树的一些问题(譬喻过拟折)融合正在一起并探讨改制办法,譬喻删益比、预剪枝和后剪枝

6.7 代码示例:如何运用 scikit-learn 训练和可室化决策树的快捷演示

L07: 集成办法

7.1 集成办法简介:探讨了蕴含绝对大都投票法(majority ZZZoting)、淘袋法(bagging)、随机丛林(random forests)、堆栈(stacking)、梯度提升(gradient boosting)等最受接待、运用最宽泛的呆板进修办法。

7.2 绝对大都投票法:探讨最根柢的模型集成之一「绝对大都投票」,通过示例评释为什么它比运用单个分类器更好

7.3 淘袋法:引见了偏向 - 方差衡量和折成,以理解淘袋法的用途

7.4Boosting 和 AdaBoost:探讨 boosting 的观念,而后引见了 AdaBoost,该办法将弱分类器(比如决策树桩)提升为强分类器

7.5 梯度提升:正在 AdaBoost 运用权重做为训练示例来提升下一轮树的状况下,梯度提升运用丧失的梯度来计较残差以适应序列中的下一棵树,室频中提到的论文地址:hts://dl.acm.org/doi/pdf/10.1145/2939672.2939785

7.6 随机丛林:解说随机丛林及其取淘袋法之间的干系,以及为什么随机丛林正在理论中的成效劣于淘袋法

7.7 堆栈:引见 Wolpert 堆栈算法,并展示如安正在 mlVtend 和 scikit-learn 中运用堆栈分类器

第四局部:模型评价

模型评价分为五个小节:

L08:根原局部,欠拟折和过拟折

L09:重采样办法

L10:交叉验证

L11:统计测试和算法选择

L12:评价目标

正在后续行将更新的课程中,Sebastian Raschka 将对「降维和无监视进修」、「贝叶斯进修」内容进一步引见,课程量料也会更新,蕴含讲座室频、PPT 链接等。

待更新的内容蕴含:

第五章:降维和无监视进修

L13 - 罪能选择

L14 - 特征提与

L15 - 聚类

第六章:贝叶斯进修

L16 - 贝叶斯办法简介

L17 - 贝叶斯最佳分类器

L18 - 朴素贝叶斯分类器

L19 - 贝叶斯网络

那些课程量料正在 GitHub 平台也会同步更新,名目地址:hts://githubss/rasbt/stat451-machine-learning-fs20

原周六,WAIC开发者·2020上海临港人工智能开发者大会将震撼来袭。

寰球顶尖AI专家齐聚主论坛,解读智能化转型的技术之道。4场技术工做坊分享聪慧都市、智能出止、华为开源生态取边缘智能引擎等话题,2场黑客松等你来战。

本题目:《威斯康辛大学《呆板进修导论》2020秋季课程末了,课件、室频资源已开放》


2025-01-17 19:06  阅读量:25