摘要:原理——BatchNorm就是在深度神经网络训练过程中使得每一层神经网络的输入保持相同分布;若对神经网络每一层做归一化,会使每一层输出为标准正太分布,会使神经网络完全学习不到特征; [ 说明——(适用于从整体分布看)图片28*28,通道3,批次10,BatchNorm就是在归一化10个批次中的所有图 阅读全文
posted @ 2019-09-20 14:57 你说啥我听不见 阅读 (384) 评论 (0) 编辑
摘要:原理——BatchNorm就是在深度神经网络训练过程中使得每一层神经网络的输入保持相同分布;若对神经网络每一层做归一化,会使每一层输出为标准正太分布,会使神经网络完全学习不到特征; [ 说明——(适用于从整体分布看)图片28*28,通道3,批次10,BatchNorm就是在归一化10个批次中的所有图 阅读全文
posted @ 2019-09-20 14:57 你说啥我听不见 阅读 (384) 评论 (0) 编辑