摘要:
一些结构没有讲解,包括正则化层(一篇论文提到采用正则化可以加快训练速度)、Recurrent Layers (看需要,平常用不到),Transformer Layers、Dropout Layers(主要是为了防止过拟合) 线性层用的比较多,所以讲这个层。 # 线性层 ![image-2023070 阅读全文
posted @ 2023-07-10 16:04
西红柿爆炒鸡蛋
阅读(48)
评论(0)
推荐(0)
摘要:
# 非线性激活 padding层不进行介绍,原因: 1. 用不到 2. 卷积层有相关参数 batch_size是什么? 输入的最外层的一个维度。或者说第一个参数。 ## 举例👇 ```python import torch input = torch.tensor([[1,-0.5], [-1,3 阅读全文
posted @ 2023-07-10 16:04
西红柿爆炒鸡蛋
阅读(30)
评论(0)
推荐(0)
摘要:
MaxPool[官方文档](https://pytorch.org/docs/stable/generated/torch.nn.MaxPool2d.html#torch.nn.MaxPool2d) 一般用`MaxPool2d`, 参数👇 - **kernel_size** ([*Union*]( 阅读全文
posted @ 2023-07-10 16:04
西红柿爆炒鸡蛋
阅读(109)
评论(0)
推荐(0)
摘要:
# [卷积网络的使用](https://pytorch.org/docs/stable/generated/torch.nn.Conv2d.html#torch.nn.Conv2d) 用2d用的多,1、3用的很少。 ## 参数Parameters - **in_channels** ([*int*] 阅读全文
posted @ 2023-07-10 16:04
西红柿爆炒鸡蛋
阅读(65)
评论(0)
推荐(0)
摘要:
一个序列模型,按照顺序到层中,比如官方案例👇 ```python # Using Sequential to create a small model. When `model` is run, # input will first be passed to `Conv2d(1,20,5)`. T 阅读全文
posted @ 2023-07-10 16:04
西红柿爆炒鸡蛋
阅读(42)
评论(0)
推荐(0)
摘要:
目标函数与实际输出时间的差距,称为损失。有损失之后,去指导输出,使其更接近于目标输出。 损失函数的作用: 1. 计算实际输出与目标之间的差距 2. 为更新输出提供一定依据(反向传播) L1LossFunction 损失函数计算-直接算目标与实际之间的差值 直接计算差 $mean = \dfrac{\ 阅读全文
posted @ 2023-07-10 16:04
西红柿爆炒鸡蛋
阅读(62)
评论(0)
推荐(0)
摘要:
# 优化器 ## 是什么? 优化器根据反向传播的梯度对参数进行调整,达到调优(降低整体误差)的目的。 ## 怎么用? 提供的优化器很多,参数也不尽相同。大部分前两个一致。model.parameters()&lr(learn rate)。 parameter作用:优化器知道模型结构是什么,可以调节的 阅读全文
posted @ 2023-07-10 16:03
西红柿爆炒鸡蛋
阅读(94)
评论(0)
推荐(0)
摘要:
pytorch现提供的网络模型该怎么修改?该怎么使用? # 现有网络模型的使用及修改 分类模型-网站:https://pytorch.org/vision/stable/models/vgg.html VGG16分类。最常用的是VGG16 VGG19。这是网络模型。 如果pretrained 为tr 阅读全文
posted @ 2023-07-10 16:03
西红柿爆炒鸡蛋
阅读(131)
评论(0)
推荐(0)
摘要:
- [x] 如何把transform和数据集结合在一起? - [x] 数据集如何下载、如何使用 在该[链接](https://pytorch.org/vision/stable/datasets.html)中,进行数据集的下载。 比如要[下载](https://pytorch.org/vision/ 阅读全文
posted @ 2023-07-10 16:02
西红柿爆炒鸡蛋
阅读(74)
评论(0)
推荐(0)
摘要:
CIFAR数据集原始数据为PIL数据类型,在使用该数据集时,需要对其转换。 案例👇train.py ```python #引入模型 from model import * #准备训练数据集 train_data = torchvision.datasets.CIFAR10(root = "../d 阅读全文
posted @ 2023-07-10 16:02
西红柿爆炒鸡蛋
阅读(85)
评论(0)
推荐(0)
摘要:
模型保存方式有两种,一种是保存网络模型结构+参数,另一种是保存模型的参数。 另外,还有一个针对于自己定义的模型的陷阱问题。 首先说第一种模型保存方式和读取方式——保存网络模型结构+模型参数 `model_full_save.py` ```python vgg16=torchvision.models 阅读全文
posted @ 2023-07-10 16:02
西红柿爆炒鸡蛋
阅读(55)
评论(0)
推荐(0)
摘要:
# 使用GPU训练 ## 方式1 找到网络模型👉找到数据(输入,标注)👉找到损失函数,找到这三种变量,调用.cuda()后,会有一个返回值,再把原来的值覆盖就行。 不能在训练数据集、优化集上调用.cuda()。 案例代码👇 ```python if torch.cuda.is_availabl 阅读全文
posted @ 2023-07-10 16:01
西红柿爆炒鸡蛋
阅读(103)
评论(0)
推荐(0)
摘要:
DataLoader Link:https://pytorch.org/docs/stable/data.html#torch.utils.data.DataLoader 
评论(0)
推荐(0)
摘要:
神经网络的工具主要在[torch.nn](https://pytorch.org/docs/stable/nn.html)中。 
评论(0)
推荐(0)

浙公网安备 33010602011771号