随笔分类 -  PyTorch深度学习实践

摘要:PyTorch最好的资料是官方文档。 1. 基本配置 需要导入的包 import collections import os import shutil import tqdm import numpy as np import PIL.Image import torch import torch 阅读全文
posted @ 2023-01-29 16:14 里列昂遗失的记事本 阅读(153) 评论(0) 推荐(1)
摘要:数据集地址:https://www.kaggle.com/datasets/shaunthesheep/microsoft-catsvsdogs-dataset ```python from shutil import copyfile import random import torch.nn a 阅读全文
posted @ 2022-05-18 18:34 里列昂遗失的记事本 阅读(943) 评论(0) 推荐(0)
摘要:梯度下降 线性模型 $\hat{y}=x*w$来拟合学习时间$x$与考试分数$y$ \[ loss=(\hat{y}-y)^2=(x*w-y)^2\to cost=\frac1N\sum^N_{n=1}(\hat{y_n}-y_n)^2 \] 由图可知损失函数在$w=2.0$时,取得最小值。记损失函 阅读全文
posted @ 2021-10-08 19:41 里列昂遗失的记事本 阅读(94) 评论(0) 推荐(0)
摘要:Linear Model 机器学习 $x$为学习时间,$y$为学习该时间能够在考试中取得的分数 在这里来为这些数据寻求一个最好的模型 线性回归 Linear Model:\(\hat{y}=x*w\) 训练损失 (误差) MSE(Mean Squared Mean)均方误差: \[ loss=(\h 阅读全文
posted @ 2021-10-08 18:30 里列昂遗失的记事本 阅读(68) 评论(0) 推荐(0)
摘要:残差神经网络(ResNet) 为什么神经网络的层数越来越深 由图可知随着神经网络层数的增加,神经网络的训练误差和测试误差相较于较低层数的神经网络都要更高。但是这个与越深的网络,训练误差和测试误差都要更小这个第一感觉相违背。 在相同的迭代次数下,更深的神经网络的误差更容易趋向于平稳。 神经网络随着层数 阅读全文
posted @ 2021-09-11 16:54 里列昂遗失的记事本 阅读(1330) 评论(0) 推荐(0)
摘要:构建高级卷积神经网络 以Google Net为例 GoogleNet的模型图为 可以看到其中有一个模块反复使用 Inception Module Inception Module 模型的具体结构图为 个人理解这个模块是将数据经过不同的卷积方式并保持图像大小不变得到不同的通来获得更多的信息,然后将最后 阅读全文
posted @ 2021-09-09 21:36 里列昂遗失的记事本 阅读(193) 评论(0) 推荐(0)
摘要:import torch from torchvision import transforms from torchvision import datasets from torch.utils.data import DataLoader import torch.nn.functional as 阅读全文
posted @ 2021-09-06 22:34 里列昂遗失的记事本 阅读(117) 评论(0) 推荐(0)
摘要:import torch # 引入模块PyTorch from torchvision import transforms # 从torch视觉中引入转换函数 from torchvision import datasets # 导入数据库 from torch.utils.data import 阅读全文
posted @ 2021-09-06 22:10 里列昂遗失的记事本 阅读(225) 评论(0) 推荐(0)
摘要:import torch import torch.nn.functional as F # 从torch引入激活函数 x_data = torch.tensor([[1.0], [2.0], [3.0]]).cuda() # 将数据放在GPU上 y_data = torch.tensor([[0. 阅读全文
posted @ 2021-09-06 21:39 里列昂遗失的记事本 阅读(359) 评论(0) 推荐(0)
摘要:这里选择将模型和loss还有数据都在GPU上,方便后续能够将大型神经网络的计算图放在GPU上来加快训练速度 import torch # 引入PyTorch模块 x = torch.tensor([[1.0], [2.0], [3.0]]).cuda() # 创建张量x,y并使用cuda()将数据存 阅读全文
posted @ 2021-09-06 17:34 里列昂遗失的记事本 阅读(263) 评论(0) 推荐(0)