会员
周边
新闻
博问
闪存
赞助商
YouClaw
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
柒七同学
博客园
首页
新随笔
联系
订阅
管理
随笔分类 -
深度学习理论
[深度学习理论]通俗理解BatchNormalization
摘要:如图所示,对于一层神经网络来说,当神经元$X_2$的range远远大于$X_1$时,加权后得到的输出$a$会极大的收到神经元$W_2*X_2$的影响,即$W_2$的大小会极大的影响loss的大小,如下图左图所示。由此,为了使得loss变小,收敛,我们需要在不同方向(权重)上应用不同学习率大小,更新参
阅读全文
posted @
2022-02-09 15:06
柒七同学
阅读(158)
评论(0)
推荐(0)
公告