上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 34 下一页
摘要: 本文以 PyTorch on Horovod 为切入点,分析一下 Horovod 弹性训练的恢复流程,具体涉及知识点有:ElasticSampler与PyTorch 原生DistributedSampler 的区别,Horovod 弹性训练如何恢复等。 阅读全文
posted @ 2021-09-18 15:47 罗西的思考 阅读(762) 评论(0) 推荐(0)
摘要: 在前文中,我们介绍了PipeDream的总体架构,Profile阶段,计算分区阶段,模型转换阶段,运行时引擎和通信模块,本文是 PipeDream 系列最后一篇,介绍 1F1B 策略,这是 PipeDream 最大的贡献。 阅读全文
posted @ 2021-09-15 16:46 罗西的思考 阅读(8535) 评论(0) 推荐(5)
摘要: 在前文中,我们介绍了PipeDream的总体架构,Profile阶段,计算分区阶段,模型转换阶段和运行时引擎,本文我们介绍PipeDream 的通信模块,通信模块是引擎的基础,同时也是PyTorch DDP,P2P 如何使用的一个万花筒和完美示例。 阅读全文
posted @ 2021-09-13 10:13 罗西的思考 阅读(1442) 评论(0) 推荐(0)
摘要: 在前文中,我们介绍了PipeDream的总体架构,Profile阶段,计算分区阶段和模型转换阶段,本文我们介绍运行时执行引擎,这是一个统一基础设施层。 阅读全文
posted @ 2021-09-11 09:39 罗西的思考 阅读(1115) 评论(0) 推荐(0)
摘要: 在前文中,我们介绍了PipeDream的总体架构,Profile阶段和计算分区阶段。本文我们介绍模型转换阶段。 阅读全文
posted @ 2021-09-07 20:27 罗西的思考 阅读(1325) 评论(0) 推荐(0)
摘要: 在前文中,我们介绍了PipeDream的总体架构和Profile阶段,本文我们继续介绍计算分区阶段。 阅读全文
posted @ 2021-09-03 17:06 罗西的思考 阅读(1844) 评论(4) 推荐(1)
摘要: 继 GPipe 之后,我们开一个流水线并行训练新系列,介绍微软的PipeDream。本文介绍其总体思路,架构和Profile阶段。 阅读全文
posted @ 2021-09-01 19:24 罗西的思考 阅读(5360) 评论(3) 推荐(1)
摘要: GPipe是一个基于 Google Brain 开发的,支持超大规模模型的神经网络训练并行库,本文介绍其重计算功能,同时可以和其他实现一起印证。 阅读全文
posted @ 2021-08-30 19:43 罗西的思考 阅读(5134) 评论(3) 推荐(3)
摘要: 梯度累积是一种增大训练时 batch size的技术,在本地使用 micro-batch 多次进行正向和反向传播积累梯度后,再进行梯度规约和优化器更新,这是用来均摊通信成本的一种常用策略。本文通过几个框架/库的实现对比,让大家对这个技术有进一步的了解。 阅读全文
posted @ 2021-08-26 08:27 罗西的思考 阅读(2872) 评论(0) 推荐(2)
摘要: GPipe 是一个基于 Lingvo (Lingvo 是 Google 基于 TensorFlow 二次开发的重点针对序列模型的框架)开发的,支持超大规模模型的神经网络训练并行库,本文介绍其基本功能和流水线机制。 阅读全文
posted @ 2021-08-23 08:24 罗西的思考 阅读(8883) 评论(4) 推荐(4)
上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 34 下一页