ML学习十——应用及其学习的建议

10-1 决定下一步做什么

当我们运用训练好了的模型来预测未知数据的时候发现有较大的误差,我们下一步可以做什么

下面是几种方法:

  • 获得更多的训练样本(通常是有效的,但代价较大,可考虑先采用下面的几种方法)

  • 尝试减少特征的数量

  • 尝试获得更多的特征

  • 尝试增加多项式特征

  • 尝试减少正则化程度λ

  • 尝试增加正则化程度λ

我们不应该随机选择上面的某种方法来改进我们的算法,而是运用一些机器学习诊断法来帮助我们知道上面哪些方法对我们的算法是有效的。

10-2 评估假设

我们将以此为基础来讨论如何避免过拟合和欠拟合的问题。

 

为了检验算法是否过拟合,我们将数据分成训练集和测试集,通常用70%的数据作为训练集,用剩下30%的数据作为测试集。很重要的一点是训练集和测试集均要含有各种类型的数据,通常我们要对数据进行“洗牌”,然后再分成训练集和测试集。

 

 

测试集评估在通过训练集让我们的模型学习得出其参数后,对测试集运用该模型,我们有两种方式计算误差:

  • 对于线性回归模型,我们利用测试集数据计算代价函数

  • 对于逻辑回归模型,我们除了可以利用测试数据集来计算代价函数外

 

 误分类的比率,对于每一个测试集样本

 

 10-3 模型的选择和训练、验证、测试集

如何进行模型的选择

 

越高次数的多项式模型越能够适应我们的训练数据集,但是适应训练数据集并不代表着能推广至一般情况,我们应该选择一个更能适应一般情况的模型。我们需要使用交叉验证集来帮助选择模型。 我们可以使用60%的数据作为训练集,20%的数据作为交叉验证集,20%的数据作为测试集

 

模型选择的方法为:

  • 使用训练集训练出10个模型

  • 用10个模型分别对交叉验证集计算得出交叉验证误差(代价函数的值)

  • 选取代价函数值最小的模型

  • 用步骤3中选出的模型对测试集计算得出推广误差(代价函数的值)

 

 

 10-4 诊断方差和偏差

如果这个算法的表现不理想,很有可能出现两种情况:偏差比较大或者方差比较大。换句话说,出现的情况要么是欠拟合,要么是过拟合问题。搞清楚这一点非常重要,因为能判断出现的情况是这两种情况中的哪一种。

 

 

接下来是他们的判断方法:

训练集误差和交叉验证集误差近似时:偏差/欠拟合 交叉验证集误差远大于训练集误差时:方差/过拟合

 

 10-5 正则化和偏差、方差

在我们在训练模型的过程中,一般会使用一些正则化方法来防止过拟合。但是我们可能会正则化的程度太高或太小了,即我们在选择λ的值时也需要思考与刚才选择多项式模型次数类似的问题。

 

正则化表达式

 

 

 

 

 

 10-6 学习曲线

学习曲线就是一种很好的工具,我经常使用学习曲线来判断某一个学习算法是否处于偏差、方差问题。学习曲线是学习算法的一个很好的合理检验(sanity check)。学习曲线是将训练集误差和交叉验证集误差作为训练集样本数量(m)的函数绘制的图表。

 

学习曲线识别高偏差/欠拟合:作为例子,我们尝试用一条直线来适应下面的数据,可以看出,无论训练集有多么大误差都不会有太大作用:

 

 

 曲线识别高方差/过拟合:假设我们使用一个非常高次的多项式模型,并且正则化非常小,可以看出,当交叉验证集误差远大于训练集误差时,往训练集增加更多数据可以提高模型的效果。

 

 10-7 下一步做什么

让我们来看一看我们在什么情况下应该怎样选择:

  • 获得更多的训练样本——解决高方差

  • 尝试减少特征的数量——解决高方差

  • 尝试获得更多的特征——解决高偏差

  • 尝试增加多项式特征——解决高偏差

  • 尝试减少正则化程度λ——解决高偏差

  • 尝试增加正则化程度λ——解决高方差

 

使用较小的神经网络,类似于参数较少的情况,容易导致高偏差和欠拟合,但计算代价较小使用较大的神经网络,类似于参数较多的情况,容易导致高方差和过拟合,虽然计算代价比较大,但是可以通过正则化手段来调整而更加适应数据。 通常选择较大的神经网络并采用正则化处理会比采用较小的神经网络效果要好。 对于神经网络中的隐藏层的层数的选择,通常从一层开始逐渐增加层数,为了更好地作选择,可以把数据分为训练集、交叉验证集和测试集,针对不同隐藏层层数的神经网络训练神经网络, 然后选择交叉验证集代价最小的神经网络。

posted @ 2020-04-29 07:40  咻咻咻变小富婆  阅读(221)  评论(1编辑  收藏  举报