有多少人工,就有多少智能
摘要: 整个优化系列文章列表: Deep Learning 之 最优化方法 Deep Learning 最优化方法之SGD Deep Learning 最优化方法之Momentum(动量) Deep Learning 最优化方法之Nesterov(牛顿动量) Deep Learning 最优化方法之AdaG 阅读全文
posted @ 2021-03-27 15:57 lvdongjie-avatarx 阅读(316) 评论(0) 推荐(0)
摘要: 批归一化方法方法(Batch Normalization,BatchNorm)是由Ioffe和Szegedy于2015年提出的,已被广泛应用在深度学习中,其目的是对神经网络中间层的输出进行标准化处理,使得中间层的输出更加稳定。 通常我们会对神经网络的数据进行标准化处理,处理后的样本数据集满足均值为0 阅读全文
posted @ 2021-03-27 15:33 lvdongjie-avatarx 阅读(1456) 评论(0) 推荐(0)