摘要: 本节笔记内容具体是学习tensorboard中的两个方法分别是scalar和histogram,一共分为3个部分:(1)首先学习SummaryWriter类;(2)其次,学习两个基本方法记录标量add_scalar和直方图可视化add_histogram;(3)最后,使用scalar和histogr 阅读全文
posted @ 2020-08-19 22:06 Selena白桃 阅读(883) 评论(0) 推荐(0) 编辑
摘要: 前面的课程学习了优化器的概念,优化器中有很多超参数如学习率lr,momentum动量、weight_decay系数,这些超参数中最重要的就是学习率。学习率可以直接控制模型参数更新的步伐,此外,在整个模型训练过程中学习率也不是一成不变的,而是可以调整变化的。本节内容就可以分为以下3方面展开,分别是:( 阅读全文
posted @ 2020-08-19 22:01 Selena白桃 阅读(8147) 评论(0) 推荐(0) 编辑
摘要: 前面学习过了Pytorch中优化器optimizer的基本属性和方法,优化器optimizer的主要功能是 “管理模型中的可学习参数,并利用参数的梯度grad以一定的策略进行更新”。本节内容分为4部分,(1)、(2)首先了解2个重要概念Learning rate学习率和momentum动量,(3)在 阅读全文
posted @ 2020-08-19 21:59 Selena白桃 阅读(525) 评论(1) 推荐(0) 编辑
摘要: 前面我们学习过了损失函数,损失函数Loss是衡量模型输出与真实标签之间的差异的。有了损失函数Loss,通过Loss根据一定的策略 来更新模型中的参数使得损失函数Loss逐步降低;这便是优化器optimizer的任务。本节优化器optimizer主要包括3方面内容,分别是(1)什么是优化器,优化器的定 阅读全文
posted @ 2020-08-19 21:57 Selena白桃 阅读(1564) 评论(0) 推荐(1) 编辑
摘要: 5、nn.L1Loss 回归任务中常用的损失函数。 功能:计算模型输出inputs与真实标签target之差的绝对值 \[ L_n=\vert x_n-y_n\vert \] 6、nn.MSELoss 回归任务中常用的损失函数。 功能:计算模型输出inputs与target之差的平方 \[ L_n= 阅读全文
posted @ 2020-08-19 21:56 Selena白桃 阅读(863) 评论(0) 推荐(1) 编辑
摘要: 前面学习了如何构建模型、模型初始化,本章学习损失函数。本章从3个方面学习,(1)损失函数的概念以及作用;(2)学习交叉熵损失函数;(3)学习其他损失函数NLL、BCE、BCEWithLogits Loss 损失函数概念 损失函数:衡量模型输出与真实标签的差异。 图1 一元线性回归模型 如图1所示,一 阅读全文
posted @ 2020-08-09 10:19 Selena白桃 阅读(1233) 评论(0) 推荐(0) 编辑
摘要: 前面学习了搭建网络模型的各个层级与结构,想要训练得到1个良好的网络模型,正确的权值初始化方法可以加快模型的收敛,相反,不恰当的权值初始化可能导致梯度爆炸或消失,最终导致模型无法训练。因此,本节主要从3方面来分析了解权值初始化:(1)分析不恰当的权值初始化是如何引发梯度消失与爆炸的?(2)学习常用的X 阅读全文
posted @ 2020-08-06 23:06 Selena白桃 阅读(1588) 评论(0) 推荐(1) 编辑
摘要: 池化层(Pooling Layer) 图1 左-最大值池化、右-平均值池化 池化定义 池化运算是对信号进行“收集”并“总结”。由于池化操作类似蓄水池收集水资源,因此得名池化。 (1)收集 通过池化运算将信号由多变少,图像尺寸由大变小的过程; (2)总结 如图1中左图所示,1张$\ 4 \times 阅读全文
posted @ 2020-08-06 22:59 Selena白桃 阅读(4326) 评论(0) 推荐(1) 编辑
摘要: 卷积概念 什么是卷积? 卷积运算:卷积核在输入信号(图像)上滑动,相应位置上进行先乘后加的运算 以上图为例,中间为卷积核,在输入图像上进行滑动,当滑动到当前位置时,其卷积运算操作是对卷积核所覆盖像素,进行权值和对应位置处像素的乘加: \(\ output= (7*0+7*(-1)+6*0+7*(-1 阅读全文
posted @ 2020-08-06 22:53 Selena白桃 阅读(966) 评论(0) 推荐(0) 编辑