2024吴恩达机器学习
一、机器学习的应用
1.监督学习(回归与分类)
2.无监督学习(聚类、异常检测、降维)
3.线性回归模型
f(x)=wx+b
代价函数
cost function:
objective minimize J(w,b)
4.梯度下降
w=w-@ d/dw J(w,b)
b=b-@ d/db J(w,b)
学习率@的影响
too small
too big
4.线性回归中的梯度下降
平方误差函数(凸壳)
5.多类特征、向量化
多类特征线性回归的梯度下降
6.特征缩放、特征工程、多项式回归
7.logistic、决策边界
8.logistic代价函数
9.梯度下降
10.欠拟合、过拟合、正则化
Addressing overfitting
I.collect more data
II.select features
- Feature selection
III.reduce size of parameters
- "Regularization"
二、高级学习算法
1.神经网络
2.神经网络中的层、前向传播
3.TensorFlow
4.前向传播~实现
5.Is there a path to AGI ?
人脑拥有神奇的学习能力
6.矩阵乘法与神经网络
7.TensorFlow实现
8.sigmod的替代,放弃激活函数?
如果对所有隐藏层使用线性函数,相当于只使用一次线性函数
9.多类、softmax、改进、多输出分类
10.高级优化方法(Adam)
11.Deciding what to try next、模型评估、CV
Get more training examples over
Try samller sets of features over
Try getting additional features In fact, I think this can be over
Try adding polynomial featrues(x*x,x1*x2,etc)
Try decreasing -
Try increasing - over
12.偏差与方差、表现基准、with神经网络
13.机器学习的迭代过程、误差分析、数据增强、迁移学习、机器学习项目完整周期、公平偏见与伦理
14.倾斜数据集的误差指标、精确率与召回率
15.决策树、学习过程
16.纯度、递归、One-Hot、连续价值特征、回归树
17.决策树森林、放回抽样、随机森林算法、XGBoost、决策树与神经网络对比
三、无监督学习、推荐算法和强化学习
1.聚类
2.k-means
3.优化目标
4.初始化K-means
5.选择聚类个数
6.发现异常事件
7.高斯分布
8.异常检测算法
9.开发和评估异常检测系统
10.选择要使用的特征
11.提出建议
12.使用每项特征
13.协同过滤算法
14.Binary labels - favs, likes and c
15.均值归一化
16.协同过滤的TensorFlow实现
17.查找相关项目
18.协同过滤 vs 基于内容的过滤
19.Deep learning for content-based
20.从大目录中推荐
21.推荐系统的道德使用
22.基于内容过滤的TensorFlow实现
23.什么是强化学习
24.火星探测器示例
25.The Return in reinforcement lear
26.强化学习中的决策与策略制定
27.回顾关键概念
28.状态动作值函数定义
29.状态动作值函数示例
30.Bellman方程
31.随机环境(optional)
32.连续状态空间应用示例
33.月球着陆器
34.学习状态值函数
35.算法优化-改进的神经网络结构
36.算法优化€-贪婪策略

浙公网安备 33010602011771号