摘要: 一、背景 机器学习的本质是对物理世界进行建模,做的就是拟合数据分布。 但是在模型训练过程中,神经网络参数不断更新,导数中间层的数据分布频繁地变化(内部协变量偏移),不利于网络参数优化。具体表现为: 每层的参数需不断适应新的输入数据分布,降低学习速度,增大学习的难度(层数多) 输入可能趋向于变大或者变 阅读全文
posted @ 2024-01-27 22:31 LeonYi 阅读(110) 评论(0) 推荐(1) 编辑