摘要:Batch Normalization和Dropout是深度学习模型中常用的结构。但BN和dropout在训练和测试时使用却不相同。 Batch Normalization BN在训练时是在每个batch上计算均值和方差来进行归一化,每个batch的样本量都不大,所以每次计算出来的均值和方差就存在差 阅读全文
posted @ 2021-01-27 11:00 微笑sun 阅读(647) 评论(0) 推荐(0) 编辑