Samar-blog

导航

2025年11月26日 #

P30_利用GUP训练(二)

摘要: 1.代码实战: (1)调用.to()方法即可。 .to(device) device = torch.device("cpu") torch.device("cuda") 点击查看代码 #12.定义训练的设备 # device = torch.device("cpu") device = torch 阅读全文

posted @ 2025-11-26 20:06 风居住的街道DYL 阅读(4) 评论(0) 推荐(0)

P29_利用GUP训练(一)

摘要: 1.方法1:调用.cuda()方法 (1)找到网络模型、数据(输入、标注)和损失函数,然后调用其.cuda()方法: ①网络模型如dyl模型:dyl.cuda(),②数据(输入、标注)即:imgs = imgs.cuda(),targets = targets.cuda(),③损失函数即loss_f 阅读全文

posted @ 2025-11-26 17:52 风居住的街道DYL 阅读(10) 评论(0) 推荐(0)

2025年11月24日 #

P28_完整的模型训练套路(三)

摘要: 本节进行训练细节总结 打开官网:torch.nn.Module,可以查看train mode 和eval mode .train()和.eval()只对特定层如Dropout和BatchNorm层起作用,但是最好还是加上; 即在训练开始前加上.train(),在测试开始前加上.eval(): 点击查 阅读全文

posted @ 2025-11-24 22:27 风居住的街道DYL 阅读(4) 评论(0) 推荐(0)

P27_完整的模型训练套路(二)

摘要: 如何辨别模型在训练过程中有没有训练好以及有没有达到我需要训练的需求? 不需要对模型进行调优了,直接利用现有的模型来进行一个测试: 9.测试步骤开始: 用with torch.no_grad():环境取消梯度 点击查看代码 #9.测试步骤开始: total_test_loss = 0 with tor 阅读全文

posted @ 2025-11-24 22:26 风居住的街道DYL 阅读(6) 评论(0) 推荐(0)

P26_完整的模型训练套路(一)

摘要: 1.准备数据集 训练数据集和测试数据集 点击查看代码 #1.准备数据集 #1.1训练数据集 from torch import nn from torch.utils.data import DataLoader train_data = torchvision.datasets.CIFAR10(" 阅读全文

posted @ 2025-11-24 20:15 风居住的街道DYL 阅读(6) 评论(0) 推荐(0)

P25_网络模型的保存与读取

摘要: 25.1网络模型的保存 (1)保存方式1:模型结构+模型参数 点击查看代码 import torch import torchvision vgg16 = torchvision.models.vgg16(pretrained=False) #保存方式1,模型结构+模型参数 torch.save(v 阅读全文

posted @ 2025-11-24 19:57 风居住的街道DYL 阅读(5) 评论(0) 推荐(0)

2025年11月23日 #

P24_现有网络模型的使用及修改

摘要: 24.1 VGG16网络模型: (1)打开pytorch(0.9.0)—torchvision.models—VGG (2)参数 点击查看代码 pretrained (bool) – If True, returns a model pre-trained on ImageNet progress 阅读全文

posted @ 2025-11-23 21:45 风居住的街道DYL 阅读(6) 评论(0) 推荐(0)

P23_ 优化器(一)

摘要: 23.1打开官网:torch.optim 1.优化器的使用 (1)构造优化器 放入模型参数、学习速率 (2)调用优化器的step方法 optimizer.zero_grad()一定要写 (3)优化器算法 params:参数,lr:学习速率(learning rate) 23.2代码实战: 1.复制n 阅读全文

posted @ 2025-11-23 12:01 风居住的街道DYL 阅读(5) 评论(0) 推荐(0)

2025年11月22日 #

P22_损失函数与反向传播

摘要: 22.1损失函数的作用 计算实际输出和目标之间的差距 为我们更新输出提供一定的依据(反向传播) 22.2几种官方文档中的损失函数 打开torch.nn—Loss Functions: 【注意:损失函数只能处理float类型的张量,可在张量设置时加入dtype=torch.float或者张量中出现小数 阅读全文

posted @ 2025-11-22 18:08 风居住的街道DYL 阅读(4) 评论(0) 推荐(0)

P21_神经网络——搭建小实战和Sequential的使用

摘要: 21.1打开pytorch官网 1.神经网络-搭建小实战和Sequential的使用 (1)Sequential的使用:将网络结构放入其中即可,可以简化代码。 (2)一个对CIFAR10进行分类的模型 (3)模型的实现(下文) 21.2打开pycharm实现模型 1.第一步的Convolution 阅读全文

posted @ 2025-11-22 10:34 风居住的街道DYL 阅读(6) 评论(0) 推荐(0)