PyTorch中的optim.SGD
摘要:
optim.SGD是PyTorch中的一个优化器,其实现了随机梯度下降(Stochastic Gradient Descent,SGD)算法。在深度学习中,我们通常使用优化器来更新神经网络中的内部参数,以使得损失函数尽可能地小。 在PyTorch中使用optim.SGD优化器,一般需要指定以下参数: 阅读全文
posted @ 2025-12-30 11:10 『潇洒の背影』 阅读(9) 评论(0) 推荐(0)
浙公网安备 33010602011771号