平凡之上
博观而约取,厚积而薄发! 守得云开见月明。
摘要: anaconda命令使用 conda update -n base conda #更新到最新版本的condaconda create -n xxx python3.7 #创建名为python3.7的xxx虚拟环境conda remove -n xxx --all #删除名为xxx的虚拟环境conda 阅读全文
posted @ 2021-11-28 21:29 平凡之上 阅读(23) 评论(0) 推荐(0) 编辑
摘要: #P30-P33完结 利用GPU来训练 方法1: 思路:找到网络模型、数据(输入,标注)、损失函数。然后调用.cuda() 然后返回 方法2: Device=torch.device("CPU") torch.device("cuda:0") #指定显卡 .to(device) 阅读全文
posted @ 2021-11-27 19:09 平凡之上 阅读(19) 评论(0) 推荐(0) 编辑
摘要: #P27-P29 完整的模型训练套路 思路步骤: 准备数据集→DataLoader加载数据集→创建网络模型→创建损失函数→设置优化器→设置训练的一些参数 →开始训练步骤:↓for data in train_dataloader ↓loss计算损失值 ↓优化器优化模型 → ↓with torch.n 阅读全文
posted @ 2021-11-27 16:21 平凡之上 阅读(14) 评论(0) 推荐(0) 编辑
摘要: #P23-P26 损失函数与反向误差 Loss function作用:1、计算实际输出和目标之间的差距 2、为我们更新输出提供一定的依据(反向传播) #根据需要去选择使用,关注函数的输入和输出。 1.nn.L1Loss() 2.nn.MSELoss() 3.nn.CrossEntropyLoss() 阅读全文
posted @ 2021-11-26 20:45 平凡之上 阅读(16) 评论(0) 推荐(0) 编辑
摘要: #P22 神经网络-搭建小实战和Sequential的使用 cifar10 model structure 全连接层(fully connected layers,FC)在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到 阅读全文
posted @ 2021-11-23 20:12 平凡之上 阅读(21) 评论(0) 推荐(0) 编辑
摘要: #P19-P21 神经网络-非线性激活 torch.nn.ReLU 进行泛化 inplace=False,则不保留原值。=True,则保留原值 线性层 linear Applies a linear transformation to the incoming data 阅读全文
posted @ 2021-11-22 18:40 平凡之上 阅读(12) 评论(0) 推荐(0) 编辑
摘要: #P15-P31 11/21日 P32-P39 11/29日 命令行删文件使用del 删目录使用rd java特点一、面向对象。两个基本概念:类、对象。三大特性:封装、继承、多态。 特点二、三。健壮性、跨平台性。 1、JDK:java开发工具包。JRE:java运行环境。 使用JDK的开发工具完成的 阅读全文
posted @ 2021-11-21 22:05 平凡之上 阅读(17) 评论(0) 推荐(0) 编辑
摘要: #P18-P19 神经网络-卷积层 torch.nn→Convolution Layers 卷积操作,关注函数参数,理解参数意义 -最大池化的使用 →Pooling Layers 阅读全文
posted @ 2021-11-21 18:53 平凡之上 阅读(11) 评论(0) 推荐(0) 编辑
摘要: #P16-P17 神经网络的基本骨架-nn.Module使用 卷积操作 阅读全文
posted @ 2021-11-20 21:40 平凡之上 阅读(12) 评论(0) 推荐(0) 编辑
摘要: #P14-P15 torchvision中数据集的使用 DataLoader的使用 batch_size:每批次抓取的数据个数。drop_last:如果DataSet大小未被批处理大小可分离,则将其设置为true以删除最后的不完整批次。如果DataSet的尺寸不可分可于批次大小,则最后批处理将更小。 阅读全文
posted @ 2021-11-19 11:28 平凡之上 阅读(16) 评论(0) 推荐(0) 编辑