摘要: 🤖:此文章由 gpt-4.1 生成,并由人类进行少量修改 LoRA(Low-Rank Adaptation)是一种参数高效微调(PEFT, Parameter-Efficient Fine-Tuning)方法,主要用于微调大型预训练模型,比如 GPT、BERT 等。 论文:LoRA: Low-Ra 阅读全文
posted @ 2025-06-08 01:30 Undefined443 阅读(60) 评论(0) 推荐(0)