神经网络

工作机制:
计算出的估计值与真实值做比较,然后得出误差,这里称之为损失函数,
为了使损失函数达到最小值,对其求导,然后向求导结果的相反方向(函数数值下降方向)
微调一点.
如此往复直到误差最小.

Adam优化器:Adam优化器是一个比较好的通用优化器,
可以通过反向传播实现渐变下降.

posted @ 2025-12-24 10:28  居哥wxg  阅读(3)  评论(0)    收藏  举报