会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Qniguoym
博客园
首页
新随笔
联系
订阅
管理
2017年12月18日
各种优化方法总结比较(sgd/momentum/Nesterov/adagrad/adadelta)
摘要: 前言 这里讨论的优化问题指的是,给定目标函数f(x),我们需要找到一组参数x,使得f(x)的值最小。 本文以下内容假设读者已经了解机器学习基本知识,和梯度下降的原理。 Batch gradient descent 梯度更新规则: BGD 采用整个训练集的数据来计算 cost function 对参数
阅读全文
posted @ 2017-12-18 16:13 Qniguoym
阅读(10112)
评论(0)
推荐(0)
公告