摘要: 🤔️如何避免梯度爆炸或消失? 在参数初始化时需要非常小心,以确保梯度和参数可以得到很好的控制(随即初始化) ReLU激活函数缓解了梯度消失问题,这样可以加速收敛。(Sigmoid激活函数在输入很大或是很小时,它的梯度都会消失。) 阅读全文
posted @ 2023-10-31 15:57 Yohoc 阅读(28) 评论(0) 推荐(0)
摘要: 在训练神经网络时,前向传播和反向传播相互依赖。 对于前向传播,我们沿着依赖的方向遍历计算图并计算其路径上的所有变量。 然后将这些用于反向传播,其中计算顺序与计算图的相反。 因此,在训练神经网络时,在初始化模型参数后, 我们交替使用前向传播和反向传播,利用反向传播给出的梯度来更新模型参数。 注意,反向 阅读全文
posted @ 2023-10-31 15:09 Yohoc 阅读(178) 评论(0) 推荐(0)