会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Democracy and Science
博客园
首页
新随笔
联系
管理
订阅
05 2017 档案
梯度下降做做优化(batch gd、sgd、adagrad )
摘要:首先说明公式的写法 上标代表了一个样本,下标代表了一个维度; 然后梯度的维度是和定义域的维度是一样的大小; 1、batch gradient descent: 假设样本个数是m个,目标函数就是J(theta),因为theta 参数的维度是和 单个样本 x(i) 的维度是一致的,theta的维度j t
阅读全文
posted @
2017-05-17 12:54
随遇而安jason
阅读(2509)
评论(0)
推荐(1)
公告