摘要: 讲述with torch.no_grad()前,先讲述requires_grad参数。 1. requires_grad 在 $torch$ 中,$tensor$ 有一个 requires_grad参数,如果设置为 $True$,则反向传播时,该 $tensor$ 就会自动求导。 $tensor$ 阅读全文
posted @ 2023-03-06 23:47 做梦当财神 阅读(121) 评论(0) 推荐(0) 编辑
摘要: 训练网络的时候希望保持一部分网络参数不变,只对其中一部分的参数进行调整;或训练部分分支网络,并不让其梯度对主网络的梯度造成影响,这时可以使用detach()切断一些分支的反向传播。 1. tensor.detach() 返回一个新的 $tensor$,从当前计算图中分离下来,但仍指向原 $tenso 阅读全文
posted @ 2023-03-06 23:14 做梦当财神 阅读(236) 评论(0) 推荐(0) 编辑