理解神经网络中的反向传播算法
结合以下两篇博客,可以更好的理解。
这里我大概梳理一下:
1)初始化各个权重,通过前向传播算法计算出输出层的值;
2)后向传播
2.1 计算总误差;
2.2 隐藏层--->输出层的权值更新;
2.3 隐藏层--->隐藏层的权值更新;
3)各个权值都跟新完毕,继续回到步骤1)不停继续迭代,会发现每次迭代后总误差都会变小。
结合以下两篇博客,可以更好的理解。
这里我大概梳理一下:
1)初始化各个权重,通过前向传播算法计算出输出层的值;
2)后向传播
2.1 计算总误差;
2.2 隐藏层--->输出层的权值更新;
2.3 隐藏层--->隐藏层的权值更新;
3)各个权值都跟新完毕,继续回到步骤1)不停继续迭代,会发现每次迭代后总误差都会变小。