随笔分类 - pytorch函数
摘要:一、load 1、cpu——cpu、gpu——gpu checkpoint = t.load(_.pth) 2、cpu——gpu checkpoint = t.load(_.pth, map_location=lambda storage, loc: storage.cuda(i)) 3、gpu——
阅读全文
摘要:model_new = nn.DataParallel(model, device_ids) 返回一个新的model output = nn.parallel.data_parallel(model, input, device_ids) 返回输出的数据
阅读全文
摘要:t.cat([a, b], axis=n) np.cat([a, b], axis=n) 1、除了拼接的维度可以不同,其他的维度必须相同 2、行和通道的拼接在数组外面,列的拼接在数组内部
阅读全文
摘要:1、 t.Tensor是一个类,是FloatTensor的别名,可以传入数据的尺寸(如t.Tensor(2, 3) )、列表、以及不传参数(生成一个空数组)。 t.tensor()是一个函数,根据传入数据的类型判断生成的tensor的数据类型,也可以自己指定,只能传入数据不能传入尺寸。可以指定dev
阅读全文
摘要:1、scatter_(dim, index, src(tensor)) 2、scatter_(dim, index, value(number)) #dim=0 self[index[x][y]][y]=src[x][y] #dim=1 self[x][index[x][y]]=src[x][y]
阅读全文
摘要:pytorch中size是函数,shape是属性,都是表示的数据的尺寸。( [3,4]它的shape是2,而不是(1, 2)) OpenCV中size和shape都是属性,size表示像素的个数,shape表示的是尺寸 numpy中size和shape都是属性,size表示元素的个数,shape表示
阅读全文
摘要:pytorch和numpy中是深拷贝 提取列表中的某一个元素往往用深拷贝,若采用直接赋值的方式,则是浅拷贝,可能对原列表造成影响。
阅读全文
摘要:net = t.nn.Linear(2, 3)optimizer = t.optim.SGD(net.parameters(), lr=0.2)for key, value in optimizer.state_dict().items(): print(key, value)for i, para
阅读全文
摘要:1、model.state_dict() # 默认是遍历 key,所以param_tensor实际上是键 for param_tensor in model.state_dict(): print(param_tensor,'\t',model.state_dict()[param_tensor].
阅读全文
摘要:clamp(input, min, max) 将input张量中的每个元素限制在min与max之间 min和max至少给定一个
阅读全文
摘要:max(input, dim, keepdim=False) dim = 0按列为单位,返回该列的最大值及行索引 dim = 1 按行为单位,返回该行的最大值及列索引 未指定dim时则为整个数据集,只返回最大值
阅读全文
摘要:1、二维: axis=0表示分别对每一列做运算; axis=1表示分别对每一行做运算。 2、高维: 假设输入的形状是(m, n, k): -如果指定axis(dim)=0, 输出的size就是(1, n, k)或者(n, k) -如果指定axis(dim)=1, 输出的size就是(m, 1, k)
阅读全文
摘要:torch.sort(input, dim=None, descending=False, out=None) 返回值包括排序后的数据及数据原来的索引
阅读全文
摘要:1、作用是将input中的数据按dim和index取出2、out[i][j][k] = input[index[i][j][k]][j][k] # if dim == 0 out[i][j][k] = input[i][index[i][j][k]][k] # if dim == 1out[i][j
阅读全文
摘要:得到最大值的索引号 dim=0表示行维度不要了 dim=1表示列维度不要了
阅读全文
摘要:x.dim(dim=0, keepdim=True) 0是按列,1是按行 keepdim是保留行和列这两个维度
阅读全文
摘要:cat((a, b, c), dim) pytorch中数据的维度依次为(N, C, H, W) 只有被拼接的维度可以不同,其他的必须相同 当在N和C的维度拼接时,直接加在后面即可 当在H维度拼接时,则按行拼接 当在w维度拼接时,则按列拼接
阅读全文
摘要:class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True) padding x 2 + stride == kernel_siz
阅读全文

浙公网安备 33010602011771号