摘要: 1. 在深度学习模型训练过程中,为什么一个epoch内损失函数会出现先下降后上升的现象? 训练中,损失先降后升可能与以下因素相关: 1)学习率过高,初期权重更新使损失下降,但后期过大更新导致拟合偏差; 2)数据批次(batch)分布不均,某些批次噪声大或样本特殊,影响参数调整; 3)正则化项作用,在 阅读全文
posted @ 2025-09-19 15:20 太一吾鱼水 阅读(100) 评论(0) 推荐(0)