会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
大浪淘沙、
不积跬步无以至千里,不积小流无以成江海,骐骥一跃不能十步,驽马十驾功在不舍。
博客园
首页
新随笔
联系
订阅
管理
2020年3月8日
按部就班的吴恩达机器学习网课用于讨论(2)
摘要: 梯度下降 梯度下降的伪代码如左下,计算误差函数J的梯度,完成一次更新误差函数中的变参,使得误差函数的值尽量最小化。 不正确的更新方式是因为,在前面计算梯度就更新参数,则后面的误差函数进行求导得出的另外的变参值,已经不再和前面组成梯度方向。 收敛 梯度收敛的原因,是随着时间的前进,则遇到更大的梯度,变
阅读全文
posted @ 2020-03-08 15:58 大浪淘沙、
阅读(161)
评论(0)
推荐(0)
公告