2019年11月9日

摘要: 联邦学习允许多个参与方在其整合数据上联合训练一个深度学习模型,而无需任何参与方将其本地数据透露给一个集中的服务器。然而,这种形式的隐私保护协作学习的代价是训练期间的大量通信开销。为了解决这个问题,分布式训练文献中提出了几种压缩方法,这些方法可以将所需的通信量减少三个数量级。然而,这些现有的方法在联邦学习设置中的实用性有限,因为它们只压缩从客户端到服务器的上行通信(而下行通信未压缩),或者仅在理想化的条件下良好地执行,例如客户端数据的IID分布,这通常不符合在联邦学习的实际情况。在这项工作中,我们提出稀疏三元压缩(Sparse Ternary Compression,STC),这是一个新的压缩框架,专门为满足联邦学习环境的要求而设计的。STC用一种新的机制扩展了现有的top-k梯度稀疏化压缩技术,以实现下游压缩以及权重更新的三元化和最优Golomb编码。我们对四种不同学习任务的实验表明,在常见的联邦学习场景中,STC明显优于联邦平均,在这些场景中,客户机 a)持有non-iid数据,b)在训练期间使用小批量,或者 c)客户机数量多,参与每轮通信的比率低。 阅读全文
posted @ 2019-11-09 16:53 穷酸秀才大草包 阅读(1143) 评论(0) 推荐(0)

导航