2020年3月12日

联邦学习(Federated learning)

摘要: 1.communication efficient algorithms parallel gradient descent Federated Averaging Algorithm 比较 (epoch相当于计算量) 结论:FedAvg减少了通信量,增加了计算量 2.defense against 阅读全文

posted @ 2020-03-12 15:27 20189223 阅读(1694) 评论(0) 推荐(0) 编辑

分布式机器学习

摘要: 最小二乘回归(最小化损失函数求解最优参数w) 并行梯度下降求解最小二乘回归 客户端 服务器架构 点对点架构 并行梯度下降(Synchronous parallel Gradient Descent) MapReduce(message passing,client server,Synchronou 阅读全文

posted @ 2020-03-12 15:11 20189223 阅读(658) 评论(0) 推荐(0) 编辑

导航