会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
ForHHeart
博客园
首页
新随笔
联系
订阅
管理
2024年9月7日
Distributed Training: DeepSpeed ZeRO 1/2/3 + Accelerate, Megatron-LM
摘要: 1 Introduction Github: https://github.com/microsoft/DeepSpeed ZeRO: Memory Optimizations Toward Training Trillion Parameter Models ZeRO-Offload: Democ
阅读全文
posted @ 2024-09-07 05:53 ForHHeart
阅读(2214)
评论(0)
推荐(0)
公告