会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Zeren
博客园
首页
新随笔
联系
订阅
管理
2022年9月18日
吴恩达机器学习随笔(WEEK_3)
摘要: 1. 一对多分类方法:就是one vs rest,有几类,就训练几个分类器,把新输入分别带入看哪个分类器的分数最高。 2. 参数与代价函数:我们初始的代价函数由初始参数(后面会讲到初始参数的几种选择方法)与各个特征值组成,经过梯度下降法不断迭代找到使得代价函数最小的参数值。我们可以绘制一幅图来明确的
阅读全文
posted @ 2022-09-18 15:58 RAGERAGE
阅读(29)
评论(0)
推荐(0)
2022年7月27日
吴恩达机器学习随笔(WEEK_2)
摘要: 1. 梯度下降法寻找参数,使训练模型的代价函数值最小。梯度下降法就是对代价函数关于参数θ求偏导,不断迭代(一般由迭代次数限制)。梯度下降法找到的参数可能是局部最优解,而并非全局最优解。 2. 特征缩放以及均值归一化。特征缩放是为了将两个或多个范围不同的特征值缩放至近似的范围,从而使梯度下降法运行的更
阅读全文
posted @ 2022-07-27 10:52 RAGERAGE
阅读(35)
评论(0)
推荐(0)
2022年5月16日
神经网络
摘要: 神经网络是一个迭代的过程,从初始特征值中训练出新的特征值,再以此为基础训练出更新的特征值,直到输出所求分类的类别。 神经网络模型都是训练前就定好的,有几个隐藏层,每层有几个单元(怎么定的暂且还不清楚)。默认是一个隐藏层,如有多个隐藏层,则需保证每个隐藏层的单元数相同。 反向传播算法计算下降梯度,也就
阅读全文
posted @ 2022-05-16 13:13 RAGERAGE
阅读(37)
评论(0)
推荐(0)
2022年4月27日
Gradient descent
摘要: 这是梯度下降算法,θj 是待求的模型假设函数的参数,J(θ) 是代价函数,α 是学习率。 关于学习率α ,它的大小决定了你的算法的优劣,过大有可能导致算法不收敛;过小则会导致迭代次数太多,算法执行时间太长。 因此选择一个合适的 α 是十分重要的,之前老是听别人说什么“调参侠”,可能就是人工调试类似这
阅读全文
posted @ 2022-04-27 11:34 RAGERAGE
阅读(34)
评论(0)
推荐(0)
2022年4月26日
Linear regression
摘要: Use some particular functions, such as gradient descent, to minimize the cost function and finally get the hypothesis.
阅读全文
posted @ 2022-04-26 10:39 RAGERAGE
阅读(25)
评论(0)
推荐(0)
公告