会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
mercurystraw
博客园
首页
新随笔
联系
订阅
管理
2025年2月27日
LoRA阅读笔记
摘要: LoRA精读笔记 背景 随着我们预训练更大规模的模型,完全微调(即重新训练所有模型参数)变得越来越不可行。 ==>提出了提出了低秩适应(Low-Rank Adaptation,LoRA)方法,该方法冻结预训练模型的权重,并在Transformer架构的每一层中注入可训练的秩分解矩阵,从而大大减少了下
阅读全文
posted @ 2025-02-27 16:34 ZonHu1
阅读(94)
评论(0)
推荐(1)
公告