摘要:        
本系列介绍分布式优化器,分为三篇文章,分别是基石篇,DP/DDP/Horovod 之中数据并行的优化器,PyTorch 分布式优化器,按照深度递进。本文介绍PyTorch 分布式优化器和PipeDream之中的优化器,主要涉及模型并行(流水线并行)。    阅读全文
        
            posted @ 2021-12-09 19:08
罗西的思考
阅读(2792)
评论(0)
推荐(0)
        
        
            
        
        
摘要:        
本系列介绍分布式优化器,分为三篇文章,分别是基石篇,DP/DDP/Horovod 之中数据并行的优化器,PyTorch 分布式优化器,按照深度递进。本文介绍数据并行DP/DDP/Horovod 之中的优化器。    阅读全文
        
            posted @ 2021-12-08 19:36
罗西的思考
阅读(1680)
评论(0)
推荐(2)
        
        
            
        
        
摘要:        
我们接下来通过几篇文章来看看分布式优化器。本系列分为三篇文章,分别是基石篇,DP/DDP/Horovod 之中数据并行的优化器,PyTorch 分布式优化器,按照深度递进。 本文是基石篇,通过本文,大家可以了解到模型的构造,优化器的基本原理,两者之间的交互,如何优化更新模型等等,这为后面的逐级分析打下了一个基础。    阅读全文
        
            posted @ 2021-12-07 19:26
罗西的思考
阅读(1656)
评论(1)
推荐(0)
        
        
            
        
        
摘要:        
上文我们介绍了引擎如何获得后向计算图的依赖,本文我们就接着看看引擎如何依据这些依赖进行后向传播。    阅读全文
        
            posted @ 2021-12-06 18:12
罗西的思考
阅读(1307)
评论(0)
推荐(1)
        
        
            
        
        
摘要:        
上文已经分析了如何启动/接受反向传播,如何进入分布式autograd 引擎,本文和下文就看看如何分布式引擎如何运作。通过本文的学习,读者可以对 dist.autograd 引擎基本静态架构和总体执行逻辑有所了解。    阅读全文
        
            posted @ 2021-12-04 10:11
罗西的思考
阅读(895)
评论(0)
推荐(1)
        
        
            
        
        
摘要:        
上文我们看到了AutogradMetadata,DistAutogradContainer 和 DistAutogradContext 等一系列基础类。我们知道了分布式autograd如何基于RPC进行传递,如何在节点之间交互,节点如何区分维护这些Session。本文继续分析,主要目的是看看反向传播如何切入到引擎之中。    阅读全文
        
            posted @ 2021-12-03 08:59
罗西的思考
阅读(719)
评论(0)
推荐(1)
        
        
            
        
        
摘要:        
我们已经知道 dist.autograd 如何发送和接受消息,本文再来看看如何其他支撑部分,就是如何把发送接受两个动作协调起来,如何确定每个发送/接受节点,如何确定每一个消息交互Session。    阅读全文
        
            posted @ 2021-12-01 21:08
罗西的思考
阅读(779)
评论(0)
推荐(0)
        
        
 
                    
                 浙公网安备 33010602011771号
浙公网安备 33010602011771号