8、梯度下降法的推导
转载:https://blog.csdn.net/pengchengliu/article/details/80932232
梯度下降算法的公式非常简单,”沿着梯度的反方向(坡度最陡)“是我们日常经验得到的,其本质的原因到底是什么呢?为什么局部下降最快的方向就是梯度的负方向呢?也许很多朋友还不太清楚。没关系,接下来我将以通俗的语言来详细解释梯度下降算法公式的数学推导过程。
1、下山问题
首先理解什么是梯度?通俗来说,梯度就是表示某一函数在该点处的方向导数沿着该方向取得较大值,即函数在当前位置的导数。

上式中,
是自变量,
是关于
的函数,
表示梯度。
如果函数
是凸函数,那么就可以使用梯度下降算法进行优化。梯度下降算法的公式我们已经很熟悉了
其中,
是自变量参数,即下山位置坐标,
是学习因子,即下山每次前进的一小步(步进长度),
是更新后的
,即下山移动一小步之后的位置。
2、一阶泰勒展开式
这里需要一点数学基础,对泰勒展开式有些了解。简单地来说,一阶泰勒展开式利用的就是函数的局部线性近似这个概念。我们以一阶泰勒展开式为例:

不懂上面的公式?没有关系。我用下面这张图来解释。

凸函数
的某一小段
由上图黑色曲线表示,可以利用线性近似的思想求出
的值,如上图红色直线。该直线的斜率等于
在
处的导数。则根据直线方程,很容易得到
的近似表达式为:

这就是一阶泰勒展开式的推导过程,主要利用的数学思想就是曲线函数的线性拟合近似。
3、梯度下降数学原理
知道了一阶泰勒展开式之后,接下来就是重点了!我们来看一下梯度下降算法是如何推导的。

其中,
是微小矢量,它的大小就是我们之前讲的步进长度
,类比于下山过程中每次前进的一小步,
为标量,而
的单位向量用
表示。则
可表示为:
特别需要注意的是,
不能太大,因为太大的话,线性近似就不够准确,一阶泰勒近似也不成立了。替换之后,
的表达式为:

重点来了,局部下降的目的是希望每次
更新,都能让函数值
变小。也就是说,上式中,我们希望
。则有:

因为
为标量,且一般设定为正值,所以可以忽略,不等式变成了:

上面这个不等式非常重要!
和
都是向量,
是当前位置的梯度方向,
表示下一步前进的单位向量,是需要我们求解的,有了它,就能根据
确定
的值了。
4、向量乘积
想要两个向量的乘积小于零,我们先来看一下两个向量乘积包含哪几种情况:

和
均为标量,
为两个向量之间的夹角。
和
的乘积为:

和
均为标量,在
和
确定的情况下,只要
,即
和
完全反向,就能让
和
的向量乘积最小(负最大值)。
顾名思义,当
与
互为反向,即为
当前梯度方向的负方向的时候,能让
最大程度地小,也就保证了
的方向是局部下降最快的方向。
知道
是
的反方向后,可直接得到:

之所以要除以
的模
,是因为
是单位向量。
求出最优解
之后,带入到
中,得:

一般地,因为
是标量,可以并入到步进因子
中即简化为:

我们通过一阶泰勒展开式,利用线性近似和向量相乘最小化的思想搞懂了梯度下降算法的数学原理。

浙公网安备 33010602011771号