不积跬步,无以至千里;不积小流,无以成江海。——荀子

  博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理

 

当我们在训练一个神经网络的时候,参数的随机初始化是非常重要的,对于逻辑回归来说,把参数初始化为0是很ok的。但是对于一个神经网络,如果我们将权重或者是所有参数初始化为0,梯度下降算法将不会起到任何作用。

 

1.为什么逻辑回归参数初始化为0是ok的?

下图所示,是logistic回归的图解:

 

 

假设我们用梯度下降法来更新我们的模型参数。

logistic回归模型的前向传播:

 

 

logistic回归模型的反向传播:

 

 

参数更新公式:

 

 

 

 

2.为什么神经网络的权重或所有参数初始化为0,梯度下降不再work?

为了说明这个问题,我们以一个简单的神经网络为例,该神经网络只有1层隐藏层,包含2个神经元,其具体的神经网络的结构图如下图所示:

神经网络的前向传播

 

 

其中,

 

 

神经网络的反向传播所能用到的导数公式:

 

 

 

 

 

 

根据上述的详细公式,我们分析一下3种情况:

 

l  模型所有权重w初始化为0,所有偏置b初始化为0

l  模型所有权重w初始化为0,所有偏置b随机初始化

l  模型所有的权重w随机初始化,所有偏置b初始化为0

 

2.1 模型所有权重w初始化为0,所有偏置b初始化为0

 

 

 

 

2.2 模型所有权重w初始化为0,所有偏置b随机初始化

 

 

2.3 模型所有的权重w随机初始化,所有偏置b初始化为0

 

 

 

结论:在训练神经网络的时候,权重初始化要谨慎,不能初始化为0

 

 

转载自:https://zhuanlan.zhihu.com/p/75879624

 

posted on 2020-05-31 23:25  hejunlin  阅读(1058)  评论(0编辑  收藏