会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
xggx
博客园
首页
新随笔
联系
订阅
管理
2026年1月10日
学习率衰减优化 和 正则化
摘要: 学习率衰减优化 和 正则化 学习率衰减优化 在训练神经网络时,学习率通常需要随着训练过程动态调整。主要原因如下: 训练后期若学习率过高,可能导致损失函数在最小值附近震荡,难以收敛 若学习率减小过慢,则收敛速度会变慢,训练时间延长 若学习率减小过快,则可能陷入局部最优或提前停止学习 学习率衰减策略通过
阅读全文
posted @ 2026-01-10 17:33 xggx
阅读(2)
评论(0)
推荐(0)
公告