随笔分类 - 深度学习
深度学习笔记
摘要:# 早停法(Early stopping) 在训练时我们会发现,并不是随着训练次数的越多训练效果越好,过度训练甚至会导致准确率的下降。所以我们需要在合适的时候选择停止,提前终止训练,保证模型的性能最好。 实现方式: 1. 使用测试集(验证集)做模型参数选择; 2. 监测测试的表现; 3. 在准确率到
阅读全文
摘要:# 动量(momentum) 动量类似于物理中的运动物体具有惯性,下一个时刻的运动方向,会与上个时刻的运动方向有关。 梯度下降的过程中,参数w朝着损失函数的偏导数的方向迭代,也就是下降得最快方向。  - Early stopping 正则化的本质是使高维的参数变小,接近于0,降低模型复杂度。  交叉熵是分类问题常用的损失函数。 ## 熵 熵表示稳定性或者说惊喜度,熵越高表示越稳定,其惊喜度就越低。  损失函数为:  求导  pytorch
阅读全文
摘要:# 多层感知机的梯度推导  pytorch实现 注:torch.randn(m,n)生成m行n列
阅读全文
摘要:# 单层感知机的梯度推导  w10表示前一层的第1节点和这一层的第0节点相连。 
浙公网安备 33010602011771号