每一年都奔走在自己热爱里

没有人是一座孤岛,总有谁爱着你
摘要: 转自 https://cloud.tencent.com/developer/article/1710864 1. 引言 在PyTorch中,对模型参数的梯度置0时通常使用两种方式:model.zero_grad()和optimizer.zero_grad()。二者在训练代码都很常见,那么二者的区别 阅读全文
posted @ 2022-11-25 14:48 关逍遥 阅读(265) 评论(0) 推荐(0)