平凡之上
博观而约取,厚积而薄发! 守得云开见月明。
11 2021 档案
一些目录操作
摘要:.\表示当前层目录 ..\表示上一层目录 ..\..\表示上两层目录 阅读全文
posted @ 2021-11-30 15:05 平凡之上 阅读(72) 评论(0) 推荐(0)
CNN的一些概念
摘要:1、CNN中的pooling层的作用 pooling是在卷积网络(CNN)中一般在卷积层(conv)之后使用的特征提取层,使用pooling技术将卷积层后得到的小邻域内的特征点整合得到新的特征。一方面防止无用参数增加时间复杂度,一方面增加了特征的整合度。它实际上是一种形式的降采样。 最常见的池化操作 阅读全文
posted @ 2021-11-29 14:23 平凡之上 阅读(175) 评论(0) 推荐(0)
11/29日学习
摘要:anaconda命令使用 conda update -n base conda #更新到最新版本的condaconda create -n xxx python3.7 #创建名为python3.7的xxx虚拟环境conda remove -n xxx --all #删除名为xxx的虚拟环境conda 阅读全文
posted @ 2021-11-28 21:29 平凡之上 阅读(29) 评论(0) 推荐(0)
11/27日学习
摘要:#P30-P33完结 利用GPU来训练 方法1: 思路:找到网络模型、数据(输入,标注)、损失函数。然后调用.cuda() 然后返回 方法2: Device=torch.device("CPU") torch.device("cuda:0") #指定显卡 .to(device) 阅读全文
posted @ 2021-11-27 19:09 平凡之上 阅读(27) 评论(0) 推荐(0)
11/26日27日学习2
摘要:#P27-P29 完整的模型训练套路 思路步骤: 准备数据集→DataLoader加载数据集→创建网络模型→创建损失函数→设置优化器→设置训练的一些参数 →开始训练步骤:↓for data in train_dataloader ↓loss计算损失值 ↓优化器优化模型 → ↓with torch.n 阅读全文
posted @ 2021-11-27 16:21 平凡之上 阅读(20) 评论(0) 推荐(0)
11/26日学习1
摘要:#P23-P26 损失函数与反向误差 Loss function作用:1、计算实际输出和目标之间的差距 2、为我们更新输出提供一定的依据(反向传播) #根据需要去选择使用,关注函数的输入和输出。 1.nn.L1Loss() 2.nn.MSELoss() 3.nn.CrossEntropyLoss() 阅读全文
posted @ 2021-11-26 20:45 平凡之上 阅读(23) 评论(0) 推荐(0)
11/23日学习
摘要:#P22 神经网络-搭建小实战和Sequential的使用 cifar10 model structure 全连接层(fully connected layers,FC)在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到 阅读全文
posted @ 2021-11-23 20:12 平凡之上 阅读(29) 评论(0) 推荐(0)
11/22日学习
摘要:#P19-P21 神经网络-非线性激活 torch.nn.ReLU 进行泛化 inplace=False,则不保留原值。=True,则保留原值 线性层 linear Applies a linear transformation to the incoming data 阅读全文
posted @ 2021-11-22 18:40 平凡之上 阅读(63) 评论(0) 推荐(0)
1、java语言概述
摘要:#P15-P31 11/21日 P32-P39 11/29日 命令行删文件使用del 删目录使用rd java特点一、面向对象。两个基本概念:类、对象。三大特性:封装、继承、多态。 特点二、三。健壮性、跨平台性。 1、JDK:java开发工具包。JRE:java运行环境。 使用JDK的开发工具完成的 阅读全文
posted @ 2021-11-21 22:05 平凡之上 阅读(31) 评论(0) 推荐(0)
11/21日学习
摘要:#P18-P19 神经网络-卷积层 torch.nn→Convolution Layers 卷积操作,关注函数参数,理解参数意义 -最大池化的使用 →Pooling Layers 阅读全文
posted @ 2021-11-21 18:53 平凡之上 阅读(19) 评论(0) 推荐(0)
11/20日学习
摘要:#P16-P17 神经网络的基本骨架-nn.Module使用 卷积操作 阅读全文
posted @ 2021-11-20 21:40 平凡之上 阅读(21) 评论(0) 推荐(0)
11/19日学习
摘要:#P14-P15 torchvision中数据集的使用 DataLoader的使用 batch_size:每批次抓取的数据个数。drop_last:如果DataSet大小未被批处理大小可分离,则将其设置为true以删除最后的不完整批次。如果DataSet的尺寸不可分可于批次大小,则最后批处理将更小。 阅读全文
posted @ 2021-11-19 11:28 平凡之上 阅读(22) 评论(0) 推荐(0)
11/18日学习
摘要:#P9-P13 Transforms的使用 transforms在计算机视觉工具包torchvision下。torchvision.transforms : 常用的图像预处理方法,提高泛化能力。 crtl+/ 注释代码 PIL和Opencv图像处理差异 1 PIL(RGB) Image.open 方 阅读全文
posted @ 2021-11-18 20:54 平凡之上 阅读(23) 评论(0) 推荐(0)
11/17日学习
摘要:#P7-P8 1、Tensorboard的使用 TensorBoard是一个可视化工具,它可以用来展示网络图、张量的指标变化、张量的分布情况等 from torch.utils.tensorboard import SummaryWriter #引入类 tensorboard --logdir=绝对 阅读全文
posted @ 2021-11-17 21:20 平凡之上 阅读(18) 评论(0) 推荐(0)
2、class(类)的使用
摘要:转载 https://www.cnblogs.com/chengd/articles/7287528.html 面向对象的设计思想是抽象出Class,根据Class创建Instance。 面向对象的抽象程度又比函数要高,因为一个Class既包含数据,又包含操作数据的方法。 1、Python的类可以继 阅读全文
posted @ 2021-11-17 15:05 平凡之上 阅读(90) 评论(0) 推荐(0)
1、__init__使用问题
摘要:Python中 __init__的通俗解释是什么? - 追远·J的回答 - 知乎 https://www.zhihu.com/question/46973549/answer/767530541 阅读全文
posted @ 2021-11-17 14:43 平凡之上 阅读(24) 评论(0) 推荐(0)
11/16日学习
摘要:#P1-P6 1、Anaconda 创建新环境:Anaconda prompt→conda create -n 环境名 python=版本 查看环境:conda info --e ①激活环境:conda activate 环境名 ②关闭环境:conda deactivate 命令行→torch.cu 阅读全文
posted @ 2021-11-16 21:25 平凡之上 阅读(23) 评论(0) 推荐(0)
11/15日学习
摘要:001-013 阅读全文
posted @ 2021-11-15 21:54 平凡之上 阅读(63) 评论(0) 推荐(0)
11/4日学习
摘要:Task:下午、结束慕课(python) Summary:慕课结束(15点) 阅读全文
posted @ 2021-11-04 13:44 平凡之上 阅读(20) 评论(0) 推荐(0)
11/1日学习
摘要:Task:下午,慕课(python) Summary:慕课剩一个半单元 阅读全文
posted @ 2021-11-01 10:08 平凡之上 阅读(24) 评论(0) 推荐(0)