会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
花嫁sama
博客园
首页
新随笔
联系
订阅
管理
2021年12月8日
吴恩达优化算法 (Optimization algorithms)笔记
摘要: Mini-batch 梯度下降(Mini-batch gradient descent) 使用batch梯度下降法,一次遍历训练集只能让你做一个梯度下降,使用mini-batch梯度下降法,一次遍历训练集,能让你做样本数/每组个数个梯度下降。 使用batch梯度下降法时,每次迭代你都需要历遍整个训练
阅读全文
posted @ 2021-12-08 11:35 花嫁sama
阅读(126)
评论(0)
推荐(0)
公告