会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
wrammi
博客园
首页
新随笔
联系
订阅
管理
2025年8月27日
Lora微调Deepseek-llm-7B-chat
摘要: 一、单机多卡训练 方法一:把AutoModelForCausalLM.from_pretrained的参数device_map改为"auto",可自动把模型和数据分配到多个GPU上 方法二:也可以使用 Accelerate,其是一个分布式训练工具包,提供底层的分布式训练基础。它更倾向于与##手动训
阅读全文
posted @ 2025-08-27 17:38 IAMM!
阅读(25)
评论(0)
推荐(0)
公告