会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
tomcat4014
博客园
首页
新随笔
联系
订阅
管理
pytorch中的zero_grad()执行时机
在反向传播(backward())前执行即可
zero_grad() 用以清除优化器的
梯度
对张量执行backward(),以计算累积
梯度
执行optimizer.step(),优化器
使用梯度
更新
参数
当优化器更新完成,梯度即失去意义,即可以清除,为保证下一次梯度开始累积时为0,则在下一次执行反向传播前清除即可
posted @
2024-07-23 11:28
tomcat4014
阅读(
10
) 评论(
0
)
收藏
举报
来源
刷新页面
返回顶部
公告