上一页 1 ··· 36 37 38 39 40 41 42 43 44 ··· 48 下一页

2019年12月18日

摘要: 联邦学习(FL)是一种机器学习环境,其中许多客户端(如移动设备或整个组织)在中央服务器(如服务提供商)的协调下协同训练模型,同时保持训练数据去中心化。FL体现了集中数据收集和最小化的原则,可以减轻传统的中心化机器学习和数据科学方法带来的许多系统隐私风险和成本。在FL研究爆炸式增长的推动下,本文讨论了近年来的进展,提出了大量的开放性问题和挑战。 阅读全文
posted @ 2019-12-18 19:09 穷酸秀才大草包 阅读(2015) 评论(0) 推荐(0)

2019年12月8日

摘要: 如今的智能个人助理,如Apple Siri、Google Now和Microsoft Cortana,都是在云端进行计算的。这种仅限云计算的方法需要通过无线网络将大量数据发送到云计算,并给数据中心产生了巨大的计算压力。然而,随着移动设备中的计算资源变得更加强大和高效,出现了这样的问题:这种只使用云计算的处理是否值得推进,以及将部分或全部计算推到边缘的移动设备上意味着什么。 阅读全文
posted @ 2019-12-08 16:04 穷酸秀才大草包 阅读(3195) 评论(2) 推荐(0)

2019年12月2日

摘要: 尽管深度神经网络取得了巨大的成功,但对抗性攻击可以通过小扰动欺骗一些训练有素的分类器。在本文中,我们提出了另一种类型的对抗性攻击,可以通过显著的变化欺骗分类器。例如,我们可以显著地改变一张脸,但是训练有素的神经网络仍然将对手和原来的例子识别为同一个人。统计上,现有的对抗攻击增加了II型错误,并且所提出的攻击针对I型错误,因此分别命名为II型和I型对抗攻击。这两种类型的攻击同样重要,但本质上不同,这是直观的解释和数值评估。为了实现该攻击,设计了一个有监督的变分自编码器,然后利用梯度信息更新潜在变量对分类器进行攻击。此外,利用预训练生成模型,研究了隐空间的I型攻击。实验结果表明,该方法在大规模图像数据集上生成I型对抗样本是实用有效的。大多数生成的示例都可以通过为防御II型攻击而设计的检测器,并且增强策略仅对特定类型的攻击有效,这都意味着I型和II型攻击的根本原因不同。 阅读全文
posted @ 2019-12-02 09:42 穷酸秀才大草包 阅读(1187) 评论(2) 推荐(0)

2019年12月1日

摘要: 联邦学习涉及在大规模分布式网络中训练机器学习模型。虽然联邦平均(FedAvg)是在该设置中训练非凸模型的主要优化方法,但在实际的联邦设置中,当跨统计异质设备(即每个设备以不同的方式收集数据)学习时,它的表现并没有得到很好的理解。在这项工作中,我们引入了一个处理统计异质性的框架FedProx,它将FedAvg作为一个特例。我们通过设备差异性假设为FedProx提供了收敛保证,该假设允许我们描述网络中的异构性。最后,我们对一组联邦数据集进行了详细的实证评估,验证了我们的理论分析,并证明了相对于FedAvg,广义FedProx框架在异构网络中学习更具有鲁棒性和稳定性。 阅读全文
posted @ 2019-12-01 21:48 穷酸秀才大草包 阅读(4018) 评论(3) 推荐(1)

2019年11月17日

摘要: 联邦学习使得大量的边缘计算设备在不共享数据的情况下共同学习模型。联邦平均法(FedAvg)是该算法中的一种主要算法,它在所有设备的一小部分上并行运行随机梯度下降(SGD),并每隔一段时间对序列进行平均。尽管它很简单,但在现实环境下却缺乏理论上的保障。本文分析了FedAvg在非iid数据上的收敛性,建立了强凸光滑问题的收敛速度O(1/T),其中T是SGDs的迭代次数。重要的是,我们的界证明了通信效率和收敛速度之间的权衡。由于用户设备可能与服务器断开连接,我们将设备完全参与的假设放宽到部分设备参与,并研究了不同的平均方案;在不严重降低学习速度的情况下,可以实现低设备参与率。我们的结果表明,数据的异质性减缓了收敛速度,这与经验观测相符。此外,我们还为FedAvg在非iid数据上的收敛性提供了一个必要条件:即使使用全梯度,学习率也必须下降;否则,解将偏离最优解。 阅读全文
posted @ 2019-11-17 11:59 穷酸秀才大草包 阅读(4006) 评论(0) 推荐(0)
摘要: 写本篇是为了记录一下之前阅读过的一些关于联邦学习的文章,然后对其中的一些关键点进行了总结,并加入了个人对于联邦学习这一研究领域的理解以及思考 阅读全文
posted @ 2019-11-17 10:54 穷酸秀才大草包 阅读(7125) 评论(0) 推荐(0)
摘要: 郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! arXiv:1908.07873v1 [cs.LG] 21 Aug 2019 Abstract 联邦学习包括通过远程设备或孤立的数据中心(如移动电话或医院)训练统计模型,同时保持数据本地化。在异构和潜在的大规模网络中进行训练带来了新的挑战 阅读全文
posted @ 2019-11-17 10:53 穷酸秀才大草包 阅读(6748) 评论(0) 推荐(0)
摘要: 最近的研究表明,在机器学习的背景下,去中心化算法比中心化算法能提供更好的性能。这两种方法的主要区别在于它们不同的通信模式,它们都容易在异构环境中性能下降。尽管人们一直致力于支持中心化算法来对抗异构性,但在去中心化算法中很少有人涉及到这个问题。 阅读全文
posted @ 2019-11-17 09:39 穷酸秀才大草包 阅读(686) 评论(0) 推荐(0)

2019年11月15日

摘要: https://blog.csdn.net/shenziheng1/article/details/79472102 #include<stdio.h> C++ fopen/fwrite/fread 文件写入: FILE * fp; fp = fopen("data.txt","w"); if (f 阅读全文
posted @ 2019-11-15 20:53 穷酸秀才大草包 阅读(111) 评论(0) 推荐(0)
摘要: 转自https://blog.csdn.net/qq_27148893/article/details/88936044 这是在开发板上编译opencv的时候报了一个错,主要是在编译过程中,内存不够造成的。 解决方案: #count的大小就是增加的swap空间的大小,64M是块大小,所以空间大小是b 阅读全文
posted @ 2019-11-15 10:47 穷酸秀才大草包 阅读(2008) 评论(0) 推荐(0)
上一页 1 ··· 36 37 38 39 40 41 42 43 44 ··· 48 下一页

导航