摘要: 大模型微调后原有能力下降是一个常见现象,主要原因包括: 1. 灾难性遗忘 (Catastrophic Forgetting) 核心问题:神经网络在学习新任务时,会覆盖之前学到的知识 机制:模型参数在新数据上更新时,破坏了原有任务的最优参数配置 影响:在新任务上表现提升,但在原任务上性能显著下降 2. 阅读全文
posted @ 2025-09-08 10:22 bonelee 阅读(271) 评论(0) 推荐(0)