会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
半夜打老虎
博客园
首页
新随笔
联系
订阅
管理
2022年10月27日
BatchNorm推理阶段和Conv合并
摘要: 一、BN层作用 批量归一化(Batch Normalization,BN)在深度学习中常放在卷积层之后,BN层有以下优点: 减少了人为选择参数。在某些情况下可以取消 dropout 和 L2 正则项参数,或者采取更小的 L2 正则项约束参数; 减少了对学习率的要求。现在我们可以使用初始很大的学习率或
阅读全文
posted @ 2022-10-27 21:29 半夜打老虎
阅读(1811)
评论(0)
推荐(0)
公告