会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
灵客风
博客园
首页
新随笔
联系
订阅
管理
2022年4月26日
Pytorch分布式训练Step by Step
摘要: DDP Overview 在开始介绍Pytorch分布式训练之前,需要首先理解有关于分布式训练的一些概念: master node:主GPU,负责同步,模型加载,拷贝,写日志等操作。 process group:在K个GPU上训练/测试模型,则K个进程形成一个组,该组由backend支持,Pytor
阅读全文
posted @ 2022-04-26 18:09 灵客风
阅读(705)
评论(0)
推荐(0)
公告