会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
learningcaiji
博客园
首页
新随笔
联系
订阅
管理
2020年10月31日
BatchNormalization
摘要: 一般而言,我们需要对输入进行归一化,保证输入的特征在都分布在0-1或者-1 - +1,这样可以加快收敛,防止因某一个特征数值大造成的模型过拟合或欠拟合问题。 但深度学习因为模型深度深,常常会出现梯度爆炸或梯度消失问题,如果对每一层输入都进行特征的归一化,可以有效地解决这个问题。 BatchNorma
阅读全文
posted @ 2020-10-31 23:21 learningcaiji
阅读(596)
评论(0)
推荐(0)
公告