线性回归的变种--岭回归与Lasso回归

1.线性回归的一般形式

2.一般线性回归出现的问题及解决方法

  2.1问题

  2.2解决方法

3.正则化

4.岭回归与Lasso回归

  4.1岭回归与lasso回归的异同

 

 

1.线性回归的一般形式

 

2.一般线性回归出现的过拟合问题及解决方法

  2.1过拟合问题

  数据少特征多容易发生过拟合问题

  • 在统计学和机器学习中,overfitting一般在描述统计学模型随机误差或噪音时用到。它通常发生在模型过于复杂的情况下,如参数过多等。overfitting会使得模型的预测性能变弱,并且增加数据的波动性。
  • Overfitting的概念在机器学习中很重要。通常一个学习算法是借由训练样本来训练的,在训练时会伴随着训练误差training error。当把该模型用到未知数据的测试时,就会相应的带来一个validation error。下面通过训练误差和验证误差来详细分析一下overfitting。如下图:

在上图中,蓝色表示训练误差training error,红色表示validation error。当训练误差达到中间的那条垂直线的点时,模型应该是最优的,如果继续减少模型的训练误差,这时就会发生过拟合。 

  第一个模型欠拟合,第二个模型刚好拟合,第三个过拟合。

  2.2解决方法

  1. 丢弃一些对我们最终预测结果影响不大的特征,具体哪些特征需要丢弃可以通过PCA算法来实现;
  2. 使用正则化技术,保留所有特征,但是减少特征前面的参数θ的大小,具体就是修改线性回归中的损失函数形式即可,岭回归以及Lasso回归就是这么做的。

3.正则化

  3.1为何引入正则化(正则化的基本思想)(引用这位大神的文章

  • [公式] , 其中,r(d)可以理解为有d的参数进行约束,或者 D 向量有d个维度

       咱们可以令: f([公式]) = [公式].

  • 如何去防止过拟合  
    1.显而易见,我们应该从【过拟合】出现的特征去判别,才能规避吧?
    显而易见,我们应该、而且只能去看【过拟合】的f(x)形式吧?
    显而易见,我们从【过拟合】的图形可以看出f(x)的涉及到的特征项一定很多吧,即[公式]等等很多吧?
    显而易见,N很大的时候,[公式]是等数量增长的吧?
    显而易见,w系数都是学习来的吧?
 
    2.现在知道这些信息之后,如何去防止过拟合,我们首先想到的就是控制N的数量吧,即让N最小化吧,而让N最小化,其实就是让W向量中项的个数最小化吧?其中,W=([公式])
    PS: 可能有人会问,为什么是考虑W,而不是考虑X?很简单,你不知道下一个样本想x输入的是什么,所以你怎么知道如何去考虑x呢?相对而言,在下一次输入[公式],即第k个样本之前,我们已经根据[公式]次测试样本的输入,计算(学习)出了W.就是这么个道理,很简单。
    
    3.所以为了防止过拟合,咱们除了需要前面的相加项最小,即

 

 最小,我们还需要让r(d)=[公式]最小,所以,为了同时满足两项都最小化,咱们可以求解让[公式]和r(d)之和最小,这样不就同时满足两者了吗?如果r(d) 过大,[公式]再小也没用;相反r(d)再小,[公式]太大也失去了问题的意义。


 

  3.2线性回归的正则化

 

此图中即为r(d)。如果增加的式子不能让整体变小,那么只会变大。而目标是整体最小化,所以应该保证局部r(d)也应该最小化,所以接近为0,参数取到最小。

    3.3正则化后用两种方法求解参数

梯度下降算法求解参数:(引用

使用正规方程算法求解参数:

 

4.岭回归与Lasso回归

  4.1岭回归与lasso回归的异同

    同:

                   岭回归与Lasso回归的出现是为了解决线性回归出现的过拟合以及在通过正规方程方法求解θ的过程中出现的x转置乘以x不可逆这两类问题的,这两种回归均通过在损失函数中引入正则化项来达到目的,具体三者的损失函数对比见下图: 
这里写图片描述

      其中λ称为正则化参数,如果λ选取过大,会把所有参数θ均最小化,造成欠拟合,如果λ选取过小,会导致对过拟合问题解决不当,因此λ的选取是一个技术活。 

    异:

  • 岭回归与Lasso回归最大的区别在于岭回归引入的是L2范数惩罚项,Lasso回归引入的是L1范数惩罚项,Lasso回归能够使得损失函数中的许多θ均变成0,这点要优于岭回归,因为岭回归是要所有的θ均存在的,这样计算量Lasso回归将远远小于岭回归。 
  • 从贝叶斯角度看,lasso(L1 正则)等价于参数 ww 的先验概率分布满足拉普拉斯分布,而 ridge(L2 正则)等价于参数 ww 的先验概率分布满足高斯分布。

 

 

 

引用文章:

https://blog.csdn.net/hzw19920329/article/details/77200475

https://www.cnblogs.com/wuliytTaotao/p/10837533.html

 

 

       

posted @ 2019-08-27 10:42  Whiterwater  阅读(2294)  评论(0)    收藏  举报