会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
首页
私信
博客园
管理
Loading...
noah6868
博客园
首页
新随笔
联系
订阅
管理
2025年6月2日
Lora:大模型轻量级微调
摘要: 技术背景 随着ChatGPT的爆火,很多公司都退出了自己的开源大模型,但是对于一些小公司来说,训练一个ChatGPT级别的大模型成本太过高昂。 所以需要一个低成本,可以在自己的数据集上低成本进行微调大模型的技术。 目前主流的方法包括 在2019年Houlsby N等人推出的Adapter Tunin
阅读全文
posted @ 2025-06-02 13:47 梨花满地
阅读(148)
评论(0)
推荐(0)
公告
点赞
关注我
收藏该文
←
→
↓
↑