摘要: 模型训练的每个周期内我们会碰到以下固定的代码逻辑组合: optimizer.no_grad() loss.backward() optimizer.step() 他们的作用分别为: optimizer.no_grad(): 清空上一轮训练留下来的梯度值。 每一轮梯度训练过程中,针对模型的参数集,都会 阅读全文
posted @ 2024-07-26 14:23 zongzw 阅读(49) 评论(0) 推荐(0)