TensorFlow2_200729系列---28、梯度消失和梯度爆炸是什么(杂)
TensorFlow2_200729系列---28、梯度消失和梯度爆炸是什么(杂)
一、总结
一句话总结:
对于多层的神经网络,当由后向前传播时,因为本来就有误差,传到某一层的时候,要么梯度不更新(梯度消失),要么梯度特别大(梯度爆炸),这两种情况都不能很好的更新网络
1、[784,w,h,b]中的b一般表示什么意思?
b表示batch,比如一个batch有多张图片,如果是分10类的话,那么输出可以写成[10,b]
二、内容在总结中
博客对应课程的视频位置:
版权申明:欢迎转载,但请注明出处
一些博文中有一些参考内容因时间久远找不到来源了没有注明,如果侵权请联系我删除。
在校每年国奖、每年专业第一,加拿大留学,先后工作于华东师范大学和香港教育大学。
2025-04-30:宅加太忙,特此在网上找女朋友,坐标上海,非诚勿扰,vx:fan404006308
AI交流资料群:753014672

浙公网安备 33010602011771号