随笔分类 -  pytorch函数

摘要:一、load 1、cpu——cpu、gpu——gpu checkpoint = t.load(_.pth) 2、cpu——gpu checkpoint = t.load(_.pth, map_location=lambda storage, loc: storage.cuda(i)) 3、gpu—— 阅读全文
posted @ 2020-09-18 16:47 6+0 阅读(180) 评论(0) 推荐(0)
摘要:model_new = nn.DataParallel(model, device_ids) 返回一个新的model output = nn.parallel.data_parallel(model, input, device_ids) 返回输出的数据 阅读全文
posted @ 2020-09-18 16:08 6+0 阅读(356) 评论(0) 推荐(0)
摘要:t.cat([a, b], axis=n) np.cat([a, b], axis=n) 1、除了拼接的维度可以不同,其他的维度必须相同 2、行和通道的拼接在数组外面,列的拼接在数组内部 阅读全文
posted @ 2020-09-15 10:59 6+0 阅读(1175) 评论(0) 推荐(0)
摘要:将一个标量tensor转换成一个python number 阅读全文
posted @ 2020-09-05 16:10 6+0 阅读(97) 评论(0) 推荐(0)
摘要:a.new(尺寸) 新建的数据与原数据的dtype和device相同 阅读全文
posted @ 2020-08-22 09:40 6+0 阅读(95) 评论(0) 推荐(0)
摘要:1、 t.Tensor是一个类,是FloatTensor的别名,可以传入数据的尺寸(如t.Tensor(2, 3) )、列表、以及不传参数(生成一个空数组)。 t.tensor()是一个函数,根据传入数据的类型判断生成的tensor的数据类型,也可以自己指定,只能传入数据不能传入尺寸。可以指定dev 阅读全文
posted @ 2020-08-22 09:29 6+0 阅读(2558) 评论(0) 推荐(0)
摘要:1、scatter_(dim, index, src(tensor)) 2、scatter_(dim, index, value(number)) #dim=0 self[index[x][y]][y]=src[x][y] #dim=1 self[x][index[x][y]]=src[x][y] 阅读全文
posted @ 2020-08-07 10:12 6+0 阅读(118) 评论(0) 推荐(0)
摘要:pytorch中size是函数,shape是属性,都是表示的数据的尺寸。( [3,4]它的shape是2,而不是(1, 2)) OpenCV中size和shape都是属性,size表示像素的个数,shape表示的是尺寸 numpy中size和shape都是属性,size表示元素的个数,shape表示 阅读全文
posted @ 2020-08-07 07:52 6+0 阅读(667) 评论(0) 推荐(0)
摘要:pytorch和numpy中是深拷贝 提取列表中的某一个元素往往用深拷贝,若采用直接赋值的方式,则是浅拷贝,可能对原列表造成影响。 阅读全文
posted @ 2020-08-05 09:49 6+0 阅读(110) 评论(0) 推荐(0)
摘要:net = t.nn.Linear(2, 3)optimizer = t.optim.SGD(net.parameters(), lr=0.2)for key, value in optimizer.state_dict().items(): print(key, value)for i, para 阅读全文
posted @ 2020-08-03 20:12 6+0 阅读(2173) 评论(0) 推荐(0)
摘要:1、model.state_dict() # 默认是遍历 key,所以param_tensor实际上是键 for param_tensor in model.state_dict(): print(param_tensor,'\t',model.state_dict()[param_tensor]. 阅读全文
posted @ 2020-08-03 10:57 6+0 阅读(367) 评论(0) 推荐(0)
摘要:clamp(input, min, max) 将input张量中的每个元素限制在min与max之间 min和max至少给定一个 阅读全文
posted @ 2020-07-24 20:59 6+0 阅读(150) 评论(0) 推荐(0)
摘要:max(input, dim, keepdim=False) dim = 0按列为单位,返回该列的最大值及行索引 dim = 1 按行为单位,返回该行的最大值及列索引 未指定dim时则为整个数据集,只返回最大值 阅读全文
posted @ 2020-07-24 20:44 6+0 阅读(103) 评论(0) 推荐(0)
摘要:1、二维: axis=0表示分别对每一列做运算; axis=1表示分别对每一行做运算。 2、高维: 假设输入的形状是(m, n, k): -如果指定axis(dim)=0, 输出的size就是(1, n, k)或者(n, k) -如果指定axis(dim)=1, 输出的size就是(m, 1, k) 阅读全文
posted @ 2020-07-04 20:26 6+0 阅读(816) 评论(0) 推荐(0)
摘要:torch.sort(input, dim=None, descending=False, out=None) 返回值包括排序后的数据及数据原来的索引 阅读全文
posted @ 2020-06-18 21:48 6+0 阅读(96) 评论(0) 推荐(0)
摘要:1、作用是将input中的数据按dim和index取出2、out[i][j][k] = input[index[i][j][k]][j][k] # if dim == 0 out[i][j][k] = input[i][index[i][j][k]][k] # if dim == 1out[i][j 阅读全文
posted @ 2020-06-14 15:13 6+0 阅读(281) 评论(0) 推荐(0)
摘要:得到最大值的索引号 dim=0表示行维度不要了 dim=1表示列维度不要了 阅读全文
posted @ 2020-06-13 22:27 6+0 阅读(184) 评论(0) 推荐(0)
摘要:x.dim(dim=0, keepdim=True) 0是按列,1是按行 keepdim是保留行和列这两个维度 阅读全文
posted @ 2020-06-10 10:31 6+0 阅读(134) 评论(0) 推荐(0)
摘要:cat((a, b, c), dim) pytorch中数据的维度依次为(N, C, H, W) 只有被拼接的维度可以不同,其他的必须相同 当在N和C的维度拼接时,直接加在后面即可 当在H维度拼接时,则按行拼接 当在w维度拼接时,则按列拼接 阅读全文
posted @ 2020-06-01 19:57 6+0 阅读(129) 评论(0) 推荐(0)
摘要:class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True) padding x 2 + stride == kernel_siz 阅读全文
posted @ 2020-02-05 09:45 6+0 阅读(124) 评论(0) 推荐(0)