学术报告: 机器学习的常用招数"/>
学术报告: 机器学习的常用招数
摘要: 传统计算机程序将人类的知识直接教给机器, 通常可以解决一些确定性的问题; 机器学习则模拟人类的学习方式, 从数据中总结出规律, 常用于解决现实中更为广泛存在的不确定性问题. 本讲座介绍惰性学习、决策树、支持向量机、BP神经网络、深度学习等常用方法, 并讨论这些方法的具体应用如植物分类、手写字识别、图片转换等.
1. 确定性与不确定性问题
1.1 确定性问题
- 动机: 科学计算 ( π \pi π)、信息管理
- 解决方案: 将规则写成程序
- 例 1: 工资的计算
- 例 2: 闰年的判断 查看完整代码
if (n % 4 != 0) {return false;} else if (n % 400 == 0) {return true;} else if (n % 100 == 0) {return false;} else {return true;} // Of if
1.2 不确定性问题
- 动机: 现实中广泛存在预测、诊断等任务
- 解决方案: 从数据中学习规律
- 例 1: 天气预报
- 例 2: 新冠检测 (有时需要检测几次)
- 例 3: 人脸识别、步态识别
- 讨论: 神学、艺术、科学
通过占卜预测天气是神学 (完全不靠谱)
看云预测天气是艺术 (月晕主风,日晕主雨. 有一定准确性)
查百度预测天气是科学 (相当准确)
2. 惰性学习
- 主要思想: 不学习, 从已知数据中找相似
- 数据预处理
No. | 萼片长度 | 萼片宽度 | 花瓣长度 | 花瓣宽度 | 类别 |
---|---|---|---|---|---|
x 1 x_1 x1 | 5.1 | 3.5 | 1.4 | 0.2 | Iris-setosa |
x 2 x_2 x2 | 4.6 | 3.4 | 1.4 | 0.3 | Iris-setosa |
x 3 x_3 x3 | 6.6 | 2.9 | 4.6 | 1.3 | Iris-versicolor |
x 4 x_4 x4 | 5.2 | 2.7 | 3.9 | 1.4 | Iris-versicolor |
x 5 x_5 x5 | 6.9 | 3.2 | 5.7 | 2.3 | Iris-virginica |
x 6 x_6 x6 | 5.6 | 2.8 | 4.9 | 2.0 | Iris-virginica |
- x 7 = [ 5.5 , 2.7 , 4.8 , 1.6 ] x_7 = [5.5, 2.7, 4.8, 1.6] x7=[5.5,2.7,4.8,1.6], 它属于哪个类别? 计算与已有数据的欧氏距离, 选择最近的 k k k 个参考即可.
- 优点: 数据多时效果好
- 缺点: 速度慢 (开卷考试最辛苦)
3. 决策树
- 主要思想: 不完全归纳
数学归纳法能保证正确性, 但机器学习不保证
- 新的样本 x 15 x_{15} x15 = [Sunny, 78, 66, True], 只需要从树根向下逐层
- 这里的 if-then-else 不是是程序直接提供的, 而是从数据中学习到的. 因此比闰年的计算更高层.
4. 集成学习
- 主要思想: 三个臭裨将, 顶个诸葛亮
5. 支持向量机与核方法
- 主要思想 1: 最大间隔
- 主要思想2: 向高维空间映射
6. BP 神经网络
- 主要思想 1: 多层的属性提取
- 主要思想 2: 激活函数改变线性
7. 深度学习
- 主要思想 1: 使用更简单的激活函数, 支持更深的网络
- 主要思想 2: 使用卷积核进行局部特征提取, 直接处理图片
- 应用: 手写字识别
使用卷积神经网络进行手写数字识别代码
- 主要思想 3: 上一时刻的输出也作为为时刻输入的一部分
- 主要思考 4: 以假乱真
生成对抗网络(GAN)的18个绝妙应用
8. 小结
机器学习势不可挡!
留言必回!
更多推荐
学术报告: 机器学习的常用招数
发布评论