会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
wuliytTaotao
努力努力再努力(ง •̀_•́)ง 研究方向:计算广告、主动学习、半监督学习
博客园
首页
新随笔
联系
订阅
管理
2019年6月28日
Adam和学习率衰减(learning rate decay)
摘要: 本文简单介绍了 Adam 优化器,并讨论一个问题:Adam 这个自适应学习率的优化器还有必要使用学习率衰减(learning rate decay)吗?
阅读全文
posted @ 2019-06-28 17:06 wuliytTaotao
阅读(79521)
评论(3)
推荐(10)
公告