一只菜鸟学机器学习的日记:拟合问题与经典解决方案
本文以作者阅读《Dive into Deep Learning》为线索,融合串联了自身理解感悟、原始论文、优秀文章等。如有无意侵权,请联系本人删除。
让我们用偏差 - 方差分解公式引入这个话题
其中,
- 若线性拟合,只能单独看一个特征,然后遍历以拟合,即大偏差小方差,泛化误差大,欠拟合。
- 若复杂度过高的神经网络(如未正则化),对训练数据的微小噪声波动极敏感,小偏差大方差,泛化误差大,过拟合。
- 若复杂度适中的神经网络,中等偏差中等方差,泛化误差小,最佳了。
得出结论:偏差是模型没学会,方差是模型学太杂
影响偏差与方差的三大因素
1. 学习算法能力(模型复杂度)
如果模型欠拟合(偏差大),就换更复杂的模型;如果过拟合(方差大),就换更简单的模型(或对复杂模型做正则化)。
2. 训练数据量
对偏差无影响,对方差影响大
如果模型过拟合(方差大),优先增加训练数据。
3. 学习任务本身的难度(任务复杂度)
如果任务简单但方差大,就控制模型复杂度或增加数据;如果任务复杂导致偏差大,就提升模型复杂度
如何判断模型是 “欠拟合(高偏差)” 还是 “过拟合(高方差)
- 欠拟合(高偏差):训练误差大,测试误差也大(模型没学会核心规律,对训练和测试数据都判断不准)。应该换更复杂的模型、增加特征维数、增加
epoch_num大小。 - 过拟合(高方差):训练误差小,测试误差大(模型过于重视训练数据的噪声,对测试数据判断不准)。应该增加训练数据、正则化(如使用L1正则化、L2正则化即权重衰减、归一化、Dropout等)、剪枝降复杂度、降低特征维度。
先说权重衰减(\(L_2\)正则化):
- 背景 :阶数过低(欠拟合)或阶数过高(过拟合,并且导致模型复杂度显著提升)都不行
- \(Solution\):\(L_2\) 正则化 \((\space Weight\space Decay\space)\)
- 就是惩罚增长过大的权重向量,通过函数与零的距离来衡量函数的复杂度,因为函数\(f(\mathbf{x})=0\) 永远是最简单的
- 为保证权重向量比较小,将其范数 \(\| \mathbf{w} \|^2\) 作为惩罚项加入 \(\mathbf{L}\) 中,将训练目标从 最小化训练标签上的预测损失 变为 最小化预测损失和惩罚项之和 。我们就可以得到:
首先原有损失为:
引入超参数 \(\lambda\) 权衡 \(\| \mathbf{w} \|^2\)。即
这里取 \(\frac{\lambda}{2}\) 是为了计算导数时的美观简单。
再说Bishop
我们从扰动的稳健性说起
经典泛化理论认为,为了缩小训练和测试性能之间的差距,应该以简单的模型为目标。简单性的另一个角度是平滑性,即函数不应该对其输入的微小变化敏感。即如果我们想样本添加一些随机噪声应该是对模型基本无影响。
在深层网络中注入噪声,会强制网络学习更加稳定、鲁棒的输入- 输出关系,使得微小的输入变化不会导致输出的剧烈跳变,从而增强映射的平滑性。
而 在输入数据中添加噪声 就等价于 Tikhonov正则化 。
Tikhonov正则化 实际上就是 L2正则化 或 权重衰减
但是 Tikhonov正则化 存在一个问题:只是在输入层添加噪声。
然而对于一个多层的深层网络,如果只在输入层添加噪声,深层网络可能会忽略这些噪声,从而仍然过拟合。
而如果在每一层都添加噪声,即 在前向传播过程中,计算每一内部层的同时注入噪声,那么整个网络都被正则化,迫使每一层都要对噪声具有鲁棒性,这才是我们想要的。
如何注入噪声呢?我们将高斯噪声添加到线性模型。每次迭代,我们对\(\mathbf{x}\) :
这就是Bishop方法。
现在可以说说Dropout 了
对于每个中间激活值,
那么 \(h\) 是什么?
就是中间特征值。所以,我们用掩码去掉的,其实就是某层的整个某节点。
我们不难证明,\(E[h'] = h\) (很简单的高中数学概率知识)
无 \(Dropout\) 的神经网络:
有 \(Dropout\) 的神经网络(这是早期,原始论文,所以未进行缩放来维持期望):
\(\mathbf{Bernoulli(p) 就是对概率 p 的 0 - 1 分布}\)
代码实现:
mask = (torch.rand(X.shape) > dropout).float()
return mask * X / (1.0 - dropout)
对于使用Dropout的net构建:
net = nn.Sequential(nn.Flatten(),
nn.Linear(784, 256),
nn.ReLU(),
nn.Dropout(dropout1),
nn.Linear(256, 256),
nn.ReLU(),
nn.Dropout(dropout2),
nn.Linear(256, 10))
拓展:更好理解Dropout(通过原论文理解)
类比一下,在自然界中,在中大型动物中,一般是有性繁殖,有性繁殖是指后代的基因从父母两方各继承一半。但是从直观上看,似乎无性繁殖更加合理,因为无性繁殖可以保留大段大段的优秀基因。而有性繁殖则将基因随机拆了又拆,破坏了大段基因的联合适应性。
但是自然选择中毕竟没有选择无性繁殖,而选择了有性繁殖,须知物竞天择,适者生存。我们可做一个假设,那就是基因的力量在于混合的能力而非单个基因的能力。
神经网络过拟合与每一层都依赖于前一层激活值相关,称这种情况为“共适应性”。 作者认为,暂退法会破坏共适应性,就像有性生殖会破坏共适应的基因一样。
\(Dropout\) 也能达到同样的效果,它强迫一个神经单元,和随机挑选出来的其他神经单元共同工作,达到好的效果。消除减弱了神经元节点间的联合适应性,增强了泛化能力。
Dropping out 20% of the input units and 50% of the hidden units was often found to be optimal.
Dropout缺点:将训练时间延长至2~3倍,因为Each training case effectively tries to train a different random architecture
本文欢迎转载,但一定标注作者与出处!

浙公网安备 33010602011771号