一些目录操作
摘要:.\表示当前层目录 ..\表示上一层目录 ..\..\表示上两层目录
阅读全文
posted @
2021-11-30 15:05
平凡之上
阅读(72)
推荐(0)
CNN的一些概念
摘要:1、CNN中的pooling层的作用 pooling是在卷积网络(CNN)中一般在卷积层(conv)之后使用的特征提取层,使用pooling技术将卷积层后得到的小邻域内的特征点整合得到新的特征。一方面防止无用参数增加时间复杂度,一方面增加了特征的整合度。它实际上是一种形式的降采样。 最常见的池化操作
阅读全文
posted @
2021-11-29 14:23
平凡之上
阅读(175)
推荐(0)
11/29日学习
摘要:anaconda命令使用 conda update -n base conda #更新到最新版本的condaconda create -n xxx python3.7 #创建名为python3.7的xxx虚拟环境conda remove -n xxx --all #删除名为xxx的虚拟环境conda
阅读全文
posted @
2021-11-28 21:29
平凡之上
阅读(29)
推荐(0)
11/27日学习
摘要:#P30-P33完结 利用GPU来训练 方法1: 思路:找到网络模型、数据(输入,标注)、损失函数。然后调用.cuda() 然后返回 方法2: Device=torch.device("CPU") torch.device("cuda:0") #指定显卡 .to(device)
阅读全文
posted @
2021-11-27 19:09
平凡之上
阅读(27)
推荐(0)
11/26日27日学习2
摘要:#P27-P29 完整的模型训练套路 思路步骤: 准备数据集→DataLoader加载数据集→创建网络模型→创建损失函数→设置优化器→设置训练的一些参数 →开始训练步骤:↓for data in train_dataloader ↓loss计算损失值 ↓优化器优化模型 → ↓with torch.n
阅读全文
posted @
2021-11-27 16:21
平凡之上
阅读(20)
推荐(0)
11/26日学习1
摘要:#P23-P26 损失函数与反向误差 Loss function作用:1、计算实际输出和目标之间的差距 2、为我们更新输出提供一定的依据(反向传播) #根据需要去选择使用,关注函数的输入和输出。 1.nn.L1Loss() 2.nn.MSELoss() 3.nn.CrossEntropyLoss()
阅读全文
posted @
2021-11-26 20:45
平凡之上
阅读(23)
推荐(0)
11/23日学习
摘要:#P22 神经网络-搭建小实战和Sequential的使用 cifar10 model structure 全连接层(fully connected layers,FC)在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到
阅读全文
posted @
2021-11-23 20:12
平凡之上
阅读(29)
推荐(0)
11/22日学习
摘要:#P19-P21 神经网络-非线性激活 torch.nn.ReLU 进行泛化 inplace=False,则不保留原值。=True,则保留原值 线性层 linear Applies a linear transformation to the incoming data
阅读全文
posted @
2021-11-22 18:40
平凡之上
阅读(63)
推荐(0)
1、java语言概述
摘要:#P15-P31 11/21日 P32-P39 11/29日 命令行删文件使用del 删目录使用rd java特点一、面向对象。两个基本概念:类、对象。三大特性:封装、继承、多态。 特点二、三。健壮性、跨平台性。 1、JDK:java开发工具包。JRE:java运行环境。 使用JDK的开发工具完成的
阅读全文
posted @
2021-11-21 22:05
平凡之上
阅读(31)
推荐(0)
11/21日学习
摘要:#P18-P19 神经网络-卷积层 torch.nn→Convolution Layers 卷积操作,关注函数参数,理解参数意义 -最大池化的使用 →Pooling Layers
阅读全文
posted @
2021-11-21 18:53
平凡之上
阅读(19)
推荐(0)
11/20日学习
摘要:#P16-P17 神经网络的基本骨架-nn.Module使用 卷积操作
阅读全文
posted @
2021-11-20 21:40
平凡之上
阅读(21)
推荐(0)
11/19日学习
摘要:#P14-P15 torchvision中数据集的使用 DataLoader的使用 batch_size:每批次抓取的数据个数。drop_last:如果DataSet大小未被批处理大小可分离,则将其设置为true以删除最后的不完整批次。如果DataSet的尺寸不可分可于批次大小,则最后批处理将更小。
阅读全文
posted @
2021-11-19 11:28
平凡之上
阅读(22)
推荐(0)
11/18日学习
摘要:#P9-P13 Transforms的使用 transforms在计算机视觉工具包torchvision下。torchvision.transforms : 常用的图像预处理方法,提高泛化能力。 crtl+/ 注释代码 PIL和Opencv图像处理差异 1 PIL(RGB) Image.open 方
阅读全文
posted @
2021-11-18 20:54
平凡之上
阅读(23)
推荐(0)
11/17日学习
摘要:#P7-P8 1、Tensorboard的使用 TensorBoard是一个可视化工具,它可以用来展示网络图、张量的指标变化、张量的分布情况等 from torch.utils.tensorboard import SummaryWriter #引入类 tensorboard --logdir=绝对
阅读全文
posted @
2021-11-17 21:20
平凡之上
阅读(18)
推荐(0)
2、class(类)的使用
摘要:转载 https://www.cnblogs.com/chengd/articles/7287528.html 面向对象的设计思想是抽象出Class,根据Class创建Instance。 面向对象的抽象程度又比函数要高,因为一个Class既包含数据,又包含操作数据的方法。 1、Python的类可以继
阅读全文
posted @
2021-11-17 15:05
平凡之上
阅读(90)
推荐(0)
1、__init__使用问题
摘要:Python中 __init__的通俗解释是什么? - 追远·J的回答 - 知乎 https://www.zhihu.com/question/46973549/answer/767530541
阅读全文
posted @
2021-11-17 14:43
平凡之上
阅读(24)
推荐(0)
11/16日学习
摘要:#P1-P6 1、Anaconda 创建新环境:Anaconda prompt→conda create -n 环境名 python=版本 查看环境:conda info --e ①激活环境:conda activate 环境名 ②关闭环境:conda deactivate 命令行→torch.cu
阅读全文
posted @
2021-11-16 21:25
平凡之上
阅读(23)
推荐(0)
11/4日学习
摘要:Task:下午、结束慕课(python) Summary:慕课结束(15点)
阅读全文
posted @
2021-11-04 13:44
平凡之上
阅读(20)
推荐(0)
11/1日学习
摘要:Task:下午,慕课(python) Summary:慕课剩一个半单元
阅读全文
posted @
2021-11-01 10:08
平凡之上
阅读(24)
推荐(0)