pytorch1.0 tutorial note
1、with torch.no_grad():可以用来节省内存,在不需要反向传播的时候,特别是evaluate net的时候,这个时候的net因为 是train过的,所以是requires_grad=True,如果为了节省内存,忽略里面存的梯度和计算图什么的,就可以使用这个;
2、model_copy = type(mymodel)() # get a new instance
model_copy.load_state_dict(mymodel.state_dict()) # copy weights and stuff
3、函数对象的.grad_fn 里面存了 中间计算结果产生的tensor和相应的梯度,计算图什么的;
4、要计算哪个tensor的梯度,就调用相应tensor对象的.backward()方法;
5、
6、

浙公网安备 33010602011771号