会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Oten
博客园
首页
新随笔
联系
订阅
管理
2024年1月22日
神经网络优化篇:详解学习率衰减(Learning rate decay)
摘要: 学习率衰减 加快学习算法的一个办法就是随时间慢慢减少学习率,将之称为学习率衰减,来看看如何做到,首先通过一个例子看看,为什么要计算学习率衰减。 假设要使用mini-batch梯度下降法,mini-batch数量不大,大概64或者128个样本,在迭代过程中会有噪音(蓝色线),下降朝向这里的最小值,但是
阅读全文
posted @ 2024-01-22 10:25 Oten
阅读(1328)
评论(0)
推荐(1)
公告