深入理解泛化

1.引言

什么是泛化呢?

先举个栗子:

  小明和小李都上了高三。小明头脑机灵,一边刷着五年高考三年模拟一边总结做题规律,而小李一门心思刷题,一套完了又一套,刷的试卷堆成山了却没有对错题进行总结。高考结束成绩公布,小明超出一本线几十分,而小李却勉强上了二本线。这是为什么呢?

  原来高考试题一般是新题,谁也没做过,平时的刷题就是为了掌握试题的规律,能够举一反三、学以致用,这样面对新题时也能从容应对。这种对规律的掌握便是泛化能力。

  在这个例子中,小明善于总结做题规律,可以说是他的泛化能力好;而小李只知道刷题却没有掌握做题规律,可以说是他的泛化能力差。

2.泛化的定义

  机器学习(深度学习)的根本问题是优化和泛化之间的对立。

  优化(optimization)是指调节模型以在训练数据上得到最佳性能(即机器学习中的学习),而泛化(generalization)是指训练好的模型在前所未见的数据上的性能好坏。

  机器学习的目的当然是得到良好的泛化,但你无法控制泛化,只能基于训练数据调节模型。

对泛化能力可以从以下六个方面来理解:

  1. 泛化能力最直接的定义是训练数据和真实数据间的差异,训练模型的目地是要模型在完全陌生的数据上进行测试的;

  2. 泛化能力还可以看成模型的稀疏性。正如奥卡姆的剪刀指出的,面对不同的解释时,最简单的解释是最好的解释。在机器学习中,具有泛化能力的模型中应该有很多参数是接近0的。而在深度学习中,则是待优化的矩阵应该对稀疏性有偏好性。

  3. 泛化能力的第三种解释是生成模型中的高保真能力。具有泛化能力的模型应在其每个抽象层次具有重构特征的能力。

  4. 第四种解释是模型能够有效的忽视琐碎的特征,或者说在无关的变化下都能找到相同的特征。

  5. 泛化能力还可以看成模型的信息压缩能力。

      这里涉及到解释为什么深度学习有效的一种假说,信息瓶颈(information bottleneck),说的是一个模型对特征进行压缩(降维)的能力越强,其就越更大的可能性做出准确的分类。信息压缩能力可以概括上述的四种关于泛化能力的解释,稀疏的模型因其结构而完成了信息的压缩,生成能力强,泛化误差低的模型因信息压缩而可能,而忽略无关特征是信息压缩的副产品。

  6. 理解泛化能力的最后一种角度是风险最小化。

      这是从博弈论的角度来看,泛化能力强的模型能尽可能降低自己在真实环境中遇到意外的风险,因此会在内部产生对未知特征的预警机制,并提前做好应对预案。这是一种很抽象的也不那么精确的解释,但随着技术的进步,人们会找出在该解释下进行模型泛化能力的量化评价方法。

3.数据集分类

数据集可以分为:

  • 训练集:实际训练算法的数据集;用来计算梯度或者Jacobian矩阵,并确定每次迭代中网络权值的更新;
  • 验证集:用于跟踪其学习效果的数据集;是一个指示器,用来表明训练数据点之间所形成的网络函数发生了什么,并且验证集上的误差值在整个训练过程中都将被监测;
  • 测试集:用于产生最终结果的数据集 。

为了让测试集能有效反映网络的泛化能力,需要牢记:

  第一,测试集绝不能以任何形式用于训练网络,即使是用于从一组备选网络中挑选网络中挑选网络。测试集只能在所有的训练和模型选择完成后使用;

  第二、测试集必须代表网络使用中涉及的所有情形(当输入空间是高维或者形状复杂时,难以保证)。

举个栗子:

  老师出了10 道习题供同学们练习,考试时老师又用同样的这10道题作为试题,这个考试成绩能否有效反映出同学们学得好不好呢?

  答案是否定的,可能有的同学只会做这10 道题却能得高分.回到我们的问题上来,我们希望得到泛化性能强的模型?好比是希望同学们对课程学得很好、获得了对所学知识"举一反三"的能力;训练样本相当于给同学们练习的习题,测试过程则相当于考试.显然,若测试样本被用作训练了,则得到的将是过于"乐观"的估计结果。

4.泛化能力分类

根据泛化能力强弱,可以分为:

Snipaste_2019-11-15_10-49-24.png

  • 欠拟合:模型不能在训练集上获得足够低的误差;
  • 拟合:测试误差与训练误差差距较小;
  • 过拟合:训练误差和测试误差之间的差距太大;
  • 不收敛:模型不是根据训练集训练得到的。

  在机器学习中,可以用Bias(偏差)、Variance(方差)衡量欠拟合、刚好拟合、过拟合。

对于Bias:

  • Bias衡量模型拟合训练数据的能力(训练数据不一定是整个 training dataset,而是只用于训练它的那一部分数据,例如:mini-batch);
  • Bias反映的是模型在样本上的输出与真实值之间的误差,即模型本身的精准度;
  • Bias 越小,拟合能力越高(可能产生overfitting);反之,拟合能力越低(可能产生underfitting)。

对于Variance:

  • Variance描述的是预测值的变化范围,离散程度,也就是离其期望值的距离。方差越大,数据的分布越分散,模型的稳定程度越差;
  • Variance反映的是模型每一次输出结果与模型输出期望之间的误差,即模型的稳定性;
  • Variance越小,模型的泛化的能力越高;反之,模型的泛化的能力越低。
图片1.png 图片2.png

  左图是高偏差,对应欠拟合;右图是高方差,对应过拟合,中间是Just Right,对应刚好拟合。

对于过拟合,可以理解为:

  过拟合指的是给定一堆数据,这堆数据带有噪声,利用模型去拟合这堆数据,可能会把噪声数据也给拟合了,这点很致命,一方面会造成模型比较复杂(想想看,本来一次函数能够拟合的数据,现在由于数据带有噪声,导致要用五次函数来拟合,多复杂!),另一方面,模型的泛化性能太差了(本来是一次函数生成的数据,结果由于噪声的干扰,得到的模型是五次的),遇到了新的数据让你测试,你所得到的过拟合的模型,正确率是很差的。

5.从训练过程来理解泛化

image-20191115110255593.png image-20191115110310372.png

  模型的容量(capacity):通常指模型中可学习参数的个数(或模型复杂度)。

  训练刚开始的时候,模型还在学习过程中,在训练集以及测试集上同时具有较高的误差,此时模型的偏差较大。这个时候,模型还没有学习到知识,处于欠拟合状态,曲线落在欠拟合区域。

  随着训练的进行,训练误差和测试误差都下降。随着模型的进一步训练,在训练集上表现的越来越好,终于在突破一个点之后,训练集的误差继续下降,而测试集的误差上升了,此时模型的方差较大,就进入了过拟合区间。 它通常发生在模型过于复杂的情况下,如参数过多等,会使得模型的预测性能变弱,并且增加数据的波动性。虽然模型在训练时的效果可以表现的很完美,基本上记住了数据的全部特点,但这种模型在未知数据的表现能力会大减折扣,因为简单的模型泛化能力通常都是很弱的。

  因此,所使用的模型应该具有足够多的参数,以防欠拟合,即模型应避免记忆资源不足。在容量过大与容量不足之间要找到一个折中,即最优容量。

这里有两个地方需要注意。

(1) 模型训练过程中,训练集的误差一定一直低于测试集吗?

  未必。如果这两个集合本来就取自于同样的数据分布,比如从一个数据集中随机采样,那么有可能测试的误差从一开始就低于训练集。不过,总体的趋势肯定是不变的,两者从一开始慢慢下降直到最后过拟合,训练集的误差低于测试集。

(2) 模型的训练一定会过拟合吗?

  这也不一定!如果数据集足够大,很可能模型的能力不够始终都不会过拟合。另一方面,有很多的方法可以阻止,或者减缓模型的过拟合,比如正则化。

参考资料

1.聊聊神经网络中的正则化

2.尹恩·古德费洛.深度学习[M].北京:人民邮电出版社,2017.8

3.马丁 T·哈根,章毅(译).神经网络设计.第二版.北京:机械出版社,2017.12

4. 深度学习500问

5.谈谈自己对正则化的一些理解

6.网上其它资料(后补)

posted on 2019-11-16 10:11  云帆sc  阅读(3065)  评论(0编辑  收藏  举报

导航