LoRA微调-挑战(3)-过拟合


过拟合不是“没学好”,而是“学得太具体,泛化不好”。

“在 LoRA 微调中,过拟合通常表现为训练 loss 很快下降,训练集指标很好,但在验证集或新数据上明显下降。
在判断前需要先排除数据质量问题,比如标注不一致或噪声过大。如果在数据质量可控的情况下,训练和验证之间仍然存在明显性能差距,这才是典型的过拟合。”

解释:

训练 loss 很快下降“训练 loss 很快下降”指的是:在很少的训练步数内,模型就把训练集拟合得非常好,
而不是指“训练跑得快”或“程序很快结束”。
训练集指标很好,但在验证集或新数据上明显下降:训练集和验证集之间存在明显 gap,就是说训练集准确度挺好,但是验证的时候准确度不怎么行

过拟合的解决

多样化训练集 → 避免 LoRA 只记住少量话术

加入 通用语料 或 时间切分验证集 → 提升泛化能力

Dropout / weight decay → 减少过拟合

posted @ 2026-01-24 08:53  向着朝阳  阅读(0)  评论(0)    收藏  举报