会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
ML-WG
博客园
首页
新随笔
联系
订阅
管理
2023年7月21日
with torch.no_grad():注意事项
摘要: 1。 当执行原地操作时,例如 tensor.add_(x),将会在一个张量上直接修改数据,而不会创建新的张量。由于修改了张量的数据,因此计算图会失效,即计算图中的操作和输入输出关系都会发生变化。这会导致反向传播无法正确计算梯度。因此,PyTorch 禁止在需要梯度计算的张量上执行原地操作。为了解决这
阅读全文
posted @ 2023-07-21 10:21 ML_WG
阅读(461)
评论(0)
推荐(0)
2023年7月20日
detach()方法细节
摘要: 在 PyTorch 中,detach() 方法被用于从计算图中分离一个 Tensor,返回一个新的 Tensor,该 Tensor 与原 Tensor 共享数据存储,但不再与计算图中的任何操作相关联。具体来说,当我们使用 detach() 方法对一个 Tensor 进行分离时,它会创建一个新的 Te
阅读全文
posted @ 2023-07-20 09:53 ML_WG
阅读(199)
评论(0)
推荐(0)
公告