摘要: 随机梯度下降(Stochastic Gradient Descent,简称SGD)是神经网络训练中最常用的优化器之一。它是一种迭代算法,每次迭代都会计算训练集中一个样本的梯度,并更新网络的权重。在本文中,我们将讨论SGD优化器的内部实现。 SGD优化器的核心是基于反向传播算法(Backpropaga 阅读全文
posted @ 2023-04-10 15:34 格勒 阅读(324) 评论(0) 推荐(0)