会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
TinaSmile
多读论文多实验,多听音乐多微笑~
博客园
首页
新随笔
联系
订阅
管理
2021年7月16日
【debug】pytorch损失/梯度出现NaN
摘要: 排查顺序 最常见的就是出现了除0或者log0这种,看看代码中在这种操作的时候有没有加一个很小的数,但是这个数数量级要和运算的数的数量级要差很多。一般是1e-8。在optim.step()之前裁剪梯度。 optim.zero_grad() loss.backward() nn.utils.clip_g
阅读全文
posted @ 2021-07-16 11:58 TinaSmile
阅读(100)
评论(0)
推荐(0)
公告