Samar-blog

导航

2025年11月23日 #

P24_现有网络模型的使用及修改

摘要: 24.1 VGG16网络模型: (1)打开pytorch(0.9.0)—torchvision.models—VGG (2)参数 点击查看代码 pretrained (bool) – If True, returns a model pre-trained on ImageNet progress 阅读全文

posted @ 2025-11-23 21:45 风居住的街道DYL 阅读(12) 评论(0) 推荐(0)

P23_ 优化器(一)

摘要: 23.1打开官网:torch.optim 1.优化器的使用 (1)构造优化器 放入模型参数、学习速率 (2)调用优化器的step方法 optimizer.zero_grad()一定要写 (3)优化器算法 params:参数,lr:学习速率(learning rate) 23.2代码实战: 1.复制n 阅读全文

posted @ 2025-11-23 12:01 风居住的街道DYL 阅读(10) 评论(0) 推荐(0)

2025年11月22日 #

P22_损失函数与反向传播

摘要: 22.1损失函数的作用 计算实际输出和目标之间的差距 为我们更新输出提供一定的依据(反向传播) 22.2几种官方文档中的损失函数 打开torch.nn—Loss Functions: 【注意:损失函数只能处理float类型的张量,可在张量设置时加入dtype=torch.float或者张量中出现小数 阅读全文

posted @ 2025-11-22 18:08 风居住的街道DYL 阅读(6) 评论(0) 推荐(0)

P21_神经网络——搭建小实战和Sequential的使用

摘要: 21.1打开pytorch官网 1.神经网络-搭建小实战和Sequential的使用 (1)Sequential的使用:将网络结构放入其中即可,可以简化代码。 (2)一个对CIFAR10进行分类的模型 (3)模型的实现(下文) 21.2打开pycharm实现模型 1.第一步的Convolution 阅读全文

posted @ 2025-11-22 10:34 风居住的街道DYL 阅读(10) 评论(0) 推荐(0)

2025年11月20日 #

P20_神经网络-线性层及其他层介绍

摘要: 20.1打开pytorch官网 1.打开torch.nn-Normalization Layers 找到BatchNorm2d: 点击查看代码 class torch.nn.BatchNorm2d(num_features, eps=1e-05, momentum=0.1, affine=True, 阅读全文

posted @ 2025-11-20 19:56 风居住的街道DYL 阅读(4) 评论(0) 推荐(0)

P19_神经网络-非线性激活

摘要: 19.1打开pytorch官网 1.打开torch.nn-Non-linear Activations-ReLU 可见:ReLU当输入为正值时输出为自身,当输入为负值时输出为0。 2.打开torch.nn-Non-linear Activations-Sigmoid Sigmoid是连续、平滑的s型 阅读全文

posted @ 2025-11-20 11:18 风居住的街道DYL 阅读(9) 评论(0) 推荐(0)

2025年11月19日 #

P18_神经网络-最大池化的使用

摘要: 18.1打开pytorch官网:Docs-PyTorch-torch.nn-Pooling Layers-MaxPool2d 1.MaxPool2d参数的Parameters class torch.nn.MaxPool2d (kernel_size, stride=None, padding=0, 阅读全文

posted @ 2025-11-19 21:17 风居住的街道DYL 阅读(30) 评论(0) 推荐(0)

2025年11月5日 #

P17.神经网络——卷积层

摘要: 17.1官网:Docs-PyTorch-torch.nn-Convolution Layers 1.nn.Conv2d:图像主要是二维矩阵 点击查看代码 class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, p 阅读全文

posted @ 2025-11-05 10:40 风居住的街道DYL 阅读(27) 评论(0) 推荐(0)

2025年11月4日 #

P16.土堆说卷积(可选看)

摘要: 16.1torch.nn.functional.conv2d的参数(官网) 点击查看代码 input:input tensor of shape (minibatch,in_channels,iH,iW) weight:filters of shape (out_channels,in_channe 阅读全文

posted @ 2025-11-04 20:53 风居住的街道DYL 阅读(14) 评论(0) 推荐(0)

P15.神经网路的基本骨架——nn.Module的使用

摘要: 打开PyTorch官网 1.找到troch.nn的Containers 2.打开pycharm:代码-生成-重写方法-选择第一个要初始化的方法__init__ 3.pycharm运行代码如下 点击查看代码 import torch from torch import nn #1.定义神经网络的模板 阅读全文

posted @ 2025-11-04 20:39 风居住的街道DYL 阅读(89) 评论(0) 推荐(0)