会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Le2duo
上一页
1
2
3
下一页
2021年12月11日
Broadband Analog Aggregation for Low-Latency Federated Edge Learning
摘要: 郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! 为了利用分布在网络边缘的丰富数据,出现了一种新的机器学习范式,称为边缘学习,在边缘部署学习算法,为移动用户提供智能服务。在计算速度快速提高的同时,通信延迟正成为快速边缘学习的瓶颈。为了解决这个问题,这项工作的重点是设计一种用于边缘学习的低
阅读全文
posted @ 2021-12-11 19:59 Le2duo
阅读(317)
评论(0)
推荐(0)
2021年12月10日
QSGD: Communication-Efficient SGD via Gradient Quantization and Encoding
摘要: 随机梯度下降(SGD)的并行实现由于其出色的可扩展性而受到了极大的研究关注。并行SGD时的一个基本障碍是节点之间通信梯度更新的高带宽成本;因此,提出了几种有损压缩启发式算法,其中节点只传递量化梯度。虽然在实践中有效,但这些启发式方法并不总是收敛。 在本文中,我们提出了量化SGD(QSGD),这是一系
阅读全文
posted @ 2021-12-10 19:25 Le2duo
阅读(1008)
评论(0)
推荐(0)
2021年12月9日
Exploiting Unintended Feature Leakage in Collaborative Learning
摘要: 协作机器学习和相关技术(如联合学习)允许多个参与者(每个人都有自己的训练数据集)通过本地训练和定期交换模型更新来构建联合模型。 我们证明,这些更新泄露了参与者培训数据的意外信息,并开发了被动和主动推理攻击来利用这种泄露。首先,我们表明,对抗性参与者可以推断准确数据点的存在,例如,其他人训练数据中的特
阅读全文
posted @ 2021-12-09 16:53 Le2duo
阅读(257)
评论(0)
推荐(0)
2021年12月5日
Privacy-Preserving Deep Learning
摘要: 1.introduction 在本文中,我们设计、实现和评估了一个实用的系统,该系统使多方能够针对给定目标共同学习一个精确的神经网络模型,而无需共享其输入数据集。我们利用了一个事实,即现代深度学习中使用的优化算法,即基于随机梯度下降的优化算法,可以并行化并异步执行。我们的系统允许参与者在自己的数据集
阅读全文
posted @ 2021-12-05 23:42 Le2duo
阅读(582)
评论(0)
推荐(0)
DO NOT LET PRIVACY OVERBILL U TILITY: G RADIENT E MBEDDING P ERTURBATION FOR P RIVATE L EARNING
摘要: 在差分隐私机制中,训练数据模型的隐私泄漏是有界的。然而,对于有意义的隐私参数,当模型包含大量可训练参数时,差异私有模型会显著降低效用。在本文中,我们提出了一种梯度嵌入扰动(GEP)算法,用于训练具有较高精度的差异私有深度模型。具体而言,在每个梯度下降步骤中,GEP First将单个私有梯度投影到非敏
阅读全文
posted @ 2021-12-05 23:21 Le2duo
阅读(73)
评论(0)
推荐(0)
No Free Lunch in Data Privacy
摘要: 差分隐私性是在统计数据库上提供保密性噪声查询答案的有力工具。它保证了噪声查询答案的分布随任何元组的添加或删除而变化很小。它经常伴随着流行的说法,即它提供隐私,而不需要对数据进行任何假设,并且它可以防止知道除一条记录之外的所有记录的攻击者。本文对差别隐私进行了批判性分析。 首先,我们使用一个没有免费午
阅读全文
posted @ 2021-12-05 22:37 Le2duo
阅读(104)
评论(0)
推荐(0)
Differential Privacy – A Primer for the Perplexed
摘要: 差分隐私是针对隐私保护数据分析,量身定做的隐私目标的定义(definition)。自从[DMNS06,Dwo06]诞生以来,差分隐私数据分析一直是算法和理论研究的主题。然而,不幸的是,有些文献是对deffnition的存在基本误解。在这份简短的邀请函中,我们将阐明并回应这些最常见的错误。 错误1:将de
阅读全文
posted @ 2021-12-05 22:06 Le2duo
阅读(87)
评论(0)
推荐(0)
Privacy in Pharmacogenetics: An End-to-End Case Study of Personalized Warfarin Dosing
摘要: 我们发起了药物遗传学中的隐私研究,其中机器学习模型被用来根据患者的基因型和背景指导医疗。对个性化华法林剂量中的隐私进行了深入的案例研究,我们发现建议的模型存在隐私风险,特别是因为攻击者可以执行我们所说的模型反转:攻击者在给定模型和一些关于患者的人口统计信息后,可以预测患者的基因标记。 由于差分隐私(
阅读全文
posted @ 2021-12-05 17:54 Le2duo
阅读(198)
评论(0)
推荐(0)
A Methodology for Formalizing Model-Inversion Attacks
摘要: 由发布机器学习模型引起的训练数据的机密性,最近受到越来越多的关注。受现有 MI 攻击和其他先前证明是“伪装”的 MI 攻击的驱动,本文通过提出一种基于游戏的方法启动了对 MI 攻击的正式研究。我们的方法揭示了许多微妙的问题,并且设计一个严格的基于游戏的定义,类似于密码学中的定义,是未来工作的有趣途径
阅读全文
posted @ 2021-12-05 15:02 Le2duo
阅读(165)
评论(0)
推荐(0)
黑客深度学习:通过示例进行模型反转攻击
摘要: 与其他应用程序相比,深度学习模型似乎不太可能成为隐私攻击的受害者。然而,存在确定实体是否用于训练集中的方法(称为成员推理的对抗性攻击),并且包含在“模型反演”下的技术允许仅在给定模型输出(有时还有上下文信息)的情况下重建原始数据输入。这篇博文展示了模型反转的端到端示例,并探讨了使用 TensorFl
阅读全文
posted @ 2021-12-05 13:29 Le2duo
阅读(1170)
评论(1)
推荐(0)
上一页
1
2
3
下一页
导航
博客园
首页
新随笔
管理
公告