摘要: 该项目的主要动机是让使用单 GPU 训练脚本变得容易,并成功地将其扩展为跨多个 GPU 并行训练。这有两个方面: 必须对程序进行多少修改才能使其分发,并且运行它有多容易? 它在分布式模式下运行速度会快多少? 在 Uber 内部,我们发现 MPI 模型比以前的解决方案(例如带有参数服务器的分布式 Te 阅读全文
posted @ 2021-12-28 19:05 母翟龙 阅读(254) 评论(0) 推荐(0) 编辑