会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
人可土申
博客园
首页
新随笔
联系
管理
订阅
2016年10月2日
DeepLearning 代码解析--随机梯度下降SGD
摘要: 1、梯度下降(gradient decent) 梯度下降方法是我们求最优化的常用方法。常用的有批量梯度下降和随机梯度下降。 对于一个目标函数;我们目的min(J(Θ)), α是learningrate,表示每次向梯度负方向下降的步长,经过一次次迭代,向最优解收敛,如下图所示。 根据数据量的大小,我们
阅读全文
posted @ 2016-10-02 21:25 人可土申
阅读(2973)
评论(0)
推荐(0)
公告