摘要:
torch.autograd库虽然实现了自动求导与梯度反向传播, 但如果我们要完成一个模型的训练, 仍需要手写参数的自动更新、 训练过程的控制等, 还是不够便利。 为此, PyTorch进一步提供了集成度更高的模块化接口torch.nn, 该接口构建于Autograd之上, 提供了网络模组、 优化器 阅读全文
posted @ 2020-09-08 18:38
赵家小伙儿
阅读(240)
评论(0)
推荐(0)
摘要:
基本数据Tensor可以保证完成前向传播, 想要完成神经网络的训练, 接下来还需要进行反向传播与梯度更新, 而PyTorch提供了自动求导机制autograd, 将前向传播的计算记录成计算图, 自动完成求导。在PyTorch 0.4版本之前, Tensor仅仅是对多维数组的抽象, 使用自动求导机制需 阅读全文
posted @ 2020-09-02 19:47
赵家小伙儿
阅读(265)
评论(0)
推荐(0)
摘要:
1. 索引操作与NumPy非常类似, 主要包含下标索引、 表达式索引、 使用torch.where()与Tensor.clamp()的选择性索引。 1 import torch 2 3 a = torch.Tensor([[0,1],[2,3]]) 4 print(a, a.size()) 5 >> 阅读全文
posted @ 2020-09-01 19:19
赵家小伙儿
阅读(611)
评论(0)
推荐(0)
摘要:
Tensor在使用时可以有不同的数据类型, 如表2.1所示, 官方给出了7种CPU Tensor类型与8种GPU Tensor类型, 在使用时可以根据网络模型所需的精度与显存容量, 合理地选取。 16位半精度浮点是专为GPU上运行的模型设计的, 以尽可能地节省GPU显存占用, 但这种节省显存空间的方 阅读全文
posted @ 2020-09-01 19:03
赵家小伙儿
阅读(805)
评论(0)
推荐(0)
摘要:
Tensor的创建与维度查看 1 import torch 2 import numpy as np 3 4 # 最基础的Tensor()函数创建方法, 参数为Tensor的每一维大小 5 a = torch.Tensor(2,2) 6 print(a) 7 >> tensor([[1.0965e- 阅读全文
posted @ 2020-09-01 18:39
赵家小伙儿
阅读(465)
评论(0)
推荐(0)
摘要:
Tensor的组合与分块 组合操作是指将不同的Tensor叠加起来, 主要有torch.cat()和torch.stack()两个函数。 cat即concatenate的意思, 是指沿着已有的数据的某一维度进行拼接, 操作后数据的总维数不变, 在进行拼接时, 除了拼接的维度之外, 其他维度必须相同。 阅读全文
posted @ 2020-09-01 18:32
赵家小伙儿
阅读(808)
评论(0)
推荐(0)
浙公网安备 33010602011771号