梯度消失与梯度爆炸问题
梯度消失、爆炸带来的影响
产生的原因
以上图中含有三个隐藏层的单神经元神经网络为例,激活函数使用 Sigmoid :
$\sigma(x)=\frac{1}{1+e^{-x}}$
$\sigma^{\prime}(x)=\sigma(x)(1-\sigma(x))=-\left(\sigma(x)-\frac{1}{2}\right)^{2}+\frac{1}{4}$
图中是一个四层的全连接网络,假设每一层网络激活后的输出为 $f_i({x})$,其中 $i$ 为第 $i$ 层,$x$ 代表第 $i$ 层的输入,也就是第 $i−1$ 层的输出,$f$ 是激活函数,那么得出
$f_{i+1}=\sigma \left(f_{i} * w_{i+1}+b_{i+1}\right)$
记为
$f_{i+1}=\sigma\left(f_{i} * w_{i+1}\right) $ 。
BP算法基于梯度下降策略,以目标的负梯度方向对参数进行调整,参数的更新为 $w \leftarrow w+\Delta w$ ,如果要更新第二隐藏层的权值信息,根据链式求导法则,更新梯度信息:
${\large \Delta w_{2}=\frac{\partial L o s s}{\partial w_{2}}=\frac{\partial L o s s}{\partial f_{4}} \frac{\partial f_{4}}{\partial f_{3}} \frac{\partial f_{3}}{\partial f_{2}} \frac{\partial f_{2}}{\partial w_{2}}} $
由
$f_{2}=f\left(f_{1} * w_{2}\right)$
得
${\large \frac{\partial f_{2}}{\partial w_{2}}=\frac{\partial \sigma }{\partial\left(f_{1} * w_{2}\right)} \frac{\partial (f_{1} * w_{2} )}{\partial\left( w_{2}\right)}=\frac{\partial \sigma }{\partial\left(f_{1} * w_{2}\right)} *f_{1} =\sigma ^{\prime}*f_{1}} $
其中 $f_{1 }$是第一层的输出。
且
$\frac{\partial f_{4}}{\partial f_{3}}=\sigma ^{\prime} * w_{4}$
$\frac{\partial f_{3}}{\partial f_{2}}=\sigma^{\prime} * w_{3}$
对激活函数进行求导 $\sigma ^{\prime}$,如果此部分大于 1 , 那么层数增多的时候,最终的求出的梯度更新将以指数形式增加,即发生梯度爆炸。如果此部分小于1,那么随着层数增多,求出的梯度更新信息将会以指数形式衰减, 即发生了梯度消失。另外,需要注意的是 $w$ 往往是矩阵形式,对于每个分量 $w_{ij}$ 分析如同激活函数。
$\Delta w_{2}=\frac{\partial L o s s}{\partial w_{2}}=\frac{\partial L o s s}{\partial f_{4}}\sigma ^{\prime} * w_{4}*\sigma ^{\prime} * w_{3}*\sigma ^{\prime}*f_{1}$
从深层网络角度来讲,不同的层学习的速度差异很大,表现为网络中靠近输出的层学习的情况很好,靠近输入的层学习的很慢,有时甚至训练了很久,前几层的权值和刚开始随机初始化的值差不多。因此,梯度消失、爆炸,其根本原因在于反向传播训练法则,属于先天不足。
因上求缘,果上努力~~~~ 作者:别关注我了,私信我吧,转载请注明原文链接:https://www.cnblogs.com/BlairGrowing/p/15371572.html

浙公网安备 33010602011771号