2020年4月2日

【论文学习11】GIANT: Globally Improved Approximate Newton Method for Distributed Optimization

摘要: 前言 分布式算法中经常使用梯度信息来进行优化,一阶方法有:SGD、加速SGD、方差减少SGD、随机坐标减少、双坐标提升方法。这些方法减少了本地计算,但同时需要更多迭代次数和更多的通信量。 Summary 1. For big data problems, distributed optimizati 阅读全文

posted @ 2020-04-02 16:42 20189223 阅读(468) 评论(0) 推荐(0) 编辑

导航