会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
GeekDengShuo
Don't be hasty,the algorithm of life also needs iteration
博客园
首页
新随笔
联系
订阅
管理
2018年9月16日
深度学习常见的优化方法(Optimizer)总结:Adam,SGD,Momentum,AdaGard等
摘要: 机器学习的常见优化方法在最近的学习中经常遇到,但是还是不够精通.将自己的学习记录下来,以备不时之需 基础知识: 机器学习几乎所有的算法都要利用损失函数 lossfunction 来检验算法模型的优劣,同时利用损失函数来提升算法模型. 这个提升的过程就叫做优化(Optimizer) 下面这个内容主要就
阅读全文
posted @ 2018-09-16 11:14 dengshuo7412
阅读(33361)
评论(1)
推荐(3)
公告