pytorch1.0 tutorial note

1、with torch.no_grad():可以用来节省内存,在不需要反向传播的时候,特别是evaluate net的时候,这个时候的net因为 是train过的,所以是requires_grad=True,如果为了节省内存,忽略里面存的梯度和计算图什么的,就可以使用这个;

2、model_copy = type(mymodel)() # get a new instance

      model_copy.load_state_dict(mymodel.state_dict()) # copy weights and stuff

3、函数对象的.grad_fn 里面存了 中间计算结果产生的tensor和相应的梯度,计算图什么的;

4、要计算哪个tensor的梯度,就调用相应tensor对象的.backward()方法;

5、

6、

 

 

 

posted @ 2019-06-06 13:33  loooffeeeey  阅读(134)  评论(0)    收藏  举报