随笔分类 -  pytorch的学习记录

摘要:对于网络模型的实例化对象net 一、 二、 阅读全文
posted @ 2019-05-31 10:46 车路历程 阅读(626) 评论(0) 推荐(0)
摘要:点击进入 阅读全文
posted @ 2019-03-14 22:27 车路历程 阅读(464) 评论(0) 推荐(0)
摘要:神经网络中的损失计算:点击此处 点击此处 经典网络的加载和初始化: pytorch中自带几种常用的深度学习网络预训练模型,torchvision.models包中包含alexnet、densenet、inception、resnet、squeezenet、vgg等常用网络结构,并且提供了预训练模型, 阅读全文
posted @ 2019-03-09 10:22 车路历程 阅读(875) 评论(0) 推荐(0)
摘要:可参考如下: https://blog.csdn.net/Hansry/article/details/84071316 阅读全文
posted @ 2019-03-04 14:22 车路历程 阅读(158) 评论(0) 推荐(0)
摘要:detach: torch.abs(input, out=None): 计算输入张量的每个元素的绝对值 torch.acos(input, out=None): 返回一个新张量,包含输入张量每个元素的反余弦函数 torch.add(input, value, out=None): 对输入张量inpu 阅读全文
posted @ 2019-02-24 22:24 车路历程 阅读(549) 评论(0) 推荐(0)
摘要:""" 自动编码的核心就是各种全连接的组合,它是一种无监督的形式,因为他的标签是自己。 """ import torch import torch.nn as nn from torch.autograd import Variable import torch.utils.data as Data import torchvision import matplotlib.pyplot as p... 阅读全文
posted @ 2019-02-01 21:22 车路历程 阅读(660) 评论(0) 推荐(0)
摘要:""" 用sin曲线预测cos曲线 重要:网络中的初始状态赋值为零,在下一次的时候一定要将上一次生成的隐层状态包装为variable """ import torch from torch import nn from torch.autograd import Variable import numpy as np import matplotlib.pyplot as plt # 超参数 ... 阅读全文
posted @ 2019-02-01 14:36 车路历程 阅读(365) 评论(0) 推荐(0)
摘要:""" 此代码是针对手写字体的训练:将图片按行依次输入网络中训练 RNN网络相对于LSTM网络很难收敛 """ import torch from torch import nn from torch.autograd import Variable import torchvision.datasets as dsets import torchvision.transforms as tra... 阅读全文
posted @ 2019-01-31 21:55 车路历程 阅读(726) 评论(0) 推荐(0)
摘要:""" 手写字体的训练 """ import os import torch import torch.nn as nn from torch.autograd import Variable import torch.utils.data as Data import torchvision import matplotlib.pyplot as plt # 超参数 EPOCH = 1 BA... 阅读全文
posted @ 2019-01-30 09:44 车路历程 阅读(196) 评论(0) 推荐(0)
摘要:""" 常用的网络优化器有四种:SGD, Momentum, RMSprop, Adam通过网络的运行结果可以知道SGD的收敛效果最差 """ import torch import torch.utils.data as Data import torch.nn.functional as F f 阅读全文
posted @ 2019-01-29 21:43 车路历程 阅读(155) 评论(0) 推荐(0)
摘要:""" 如果整个数据库中图片的数量不是每批数据图片数量的整数倍,体统会将剩余的图片放入最后一批 """ import torch import torch.utils.data as Data torch.manual_seed(1) # reproducible BATCH_SIZE = 5 x = torch.linspace(1, 10, 10) y = torch.linsp... 阅读全文
posted @ 2019-01-29 20:13 车路历程 阅读(312) 评论(0) 推荐(0)
摘要:""" 通常情况下,提取整个网络要比提取整个网络中的参数要慢点 """ import torch from torch.autograd import Variable import matplotlib.pyplot as plt # 数据 x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1) y = x.pow(2) + 0.2*to... 阅读全文
posted @ 2019-01-29 19:50 车路历程 阅读(248) 评论(0) 推荐(0)
摘要:""" 以下两种搭建网络的效果是一样的,很显然第二种方法是非常简洁的 """ import torch import torch.nn.functional as F # 第一种搭建方法 class Net(torch.nn.Module): def __init__(self, n_feature, n_hidden, n_output): super(Net, se... 阅读全文
posted @ 2019-01-29 17:10 车路历程 阅读(297) 评论(0) 推荐(0)
摘要:""" pytorch中数据标签默认的数据格式是LongTensor,即64位的整数 """ import torch from torch.autograd import Variable import torch.nn.functional as F import matplotlib.pyplot as plt # 制作数据 n_data = torch.ones(100, 2) x0 ... 阅读全文
posted @ 2019-01-29 17:01 车路历程 阅读(258) 评论(0) 推荐(0)
摘要:""" 在pytorch中只有Variable可以参与网络的训练 """ import torch from torch.autograd import Variable import torch.nn.functional as F import matplotlib.pyplot as plt x = torch.unsqueeze(torch.linspace(-1, 1, 100), ... 阅读全文
posted @ 2019-01-29 12:26 车路历程 阅读(580) 评论(0) 推荐(0)
摘要:""" 神经网络中共有四个常用的激活函数:relu, sigmoid, tanh, softmax.其中softmax是针对概率的 """ import torch import torch.nn.functional as F from torch.autograd import Variable 阅读全文
posted @ 2019-01-29 11:57 车路历程 阅读(102) 评论(0) 推荐(0)
摘要:""" Variable为tensor数据构建计算图,便于网络的运算 """ import torch from torch.autograd import Variable tensor = torch.FloatTensor([[1,2],[3,4]]) # 创建一个tensor类型的数据 variable = Variable(tensor, requires_gr... 阅读全文
posted @ 2019-01-29 11:43 车路历程 阅读(1986) 评论(0) 推荐(0)
摘要:""" pytorch相当于神经网络中的numpy,它是以tensor的形式表示 """ import torch import numpy as np # convert numpy to tensor or vise versa np_data = np.arange(6).reshape((2, 3)) torch_data = torch.from_numpy(np_data) #nu... 阅读全文
posted @ 2019-01-29 11:36 车路历程 阅读(7588) 评论(0) 推荐(0)