2021年12月5日

摘要: 1.introduction 在本文中,我们设计、实现和评估了一个实用的系统,该系统使多方能够针对给定目标共同学习一个精确的神经网络模型,而无需共享其输入数据集。我们利用了一个事实,即现代深度学习中使用的优化算法,即基于随机梯度下降的优化算法,可以并行化并异步执行。我们的系统允许参与者在自己的数据集 阅读全文
posted @ 2021-12-05 23:42 Le2duo 阅读(573) 评论(0) 推荐(0)
摘要: 在差分隐私机制中,训练数据模型的隐私泄漏是有界的。然而,对于有意义的隐私参数,当模型包含大量可训练参数时,差异私有模型会显著降低效用。在本文中,我们提出了一种梯度嵌入扰动(GEP)算法,用于训练具有较高精度的差异私有深度模型。具体而言,在每个梯度下降步骤中,GEP First将单个私有梯度投影到非敏 阅读全文
posted @ 2021-12-05 23:21 Le2duo 阅读(67) 评论(0) 推荐(0)
摘要: 差分隐私性是在统计数据库上提供保密性噪声查询答案的有力工具。它保证了噪声查询答案的分布随任何元组的添加或删除而变化很小。它经常伴随着流行的说法,即它提供隐私,而不需要对数据进行任何假设,并且它可以防止知道除一条记录之外的所有记录的攻击者。本文对差别隐私进行了批判性分析。 首先,我们使用一个没有免费午 阅读全文
posted @ 2021-12-05 22:37 Le2duo 阅读(95) 评论(0) 推荐(0)
摘要: 差分隐私是针对隐私保护数据分析,量身定做的隐私目标的定义(definition)。自从[DMNS06,Dwo06]诞生以来,差分隐私数据分析一直是算法和理论研究的主题。然而,不幸的是,有些文献是对deffnition的存在基本误解。在这份简短的邀请函中,我们将阐明并回应这些最常见的错误。 错误1:将de 阅读全文
posted @ 2021-12-05 22:06 Le2duo 阅读(76) 评论(0) 推荐(0)
摘要: 我们发起了药物遗传学中的隐私研究,其中机器学习模型被用来根据患者的基因型和背景指导医疗。对个性化华法林剂量中的隐私进行了深入的案例研究,我们发现建议的模型存在隐私风险,特别是因为攻击者可以执行我们所说的模型反转:攻击者在给定模型和一些关于患者的人口统计信息后,可以预测患者的基因标记。 由于差分隐私( 阅读全文
posted @ 2021-12-05 17:54 Le2duo 阅读(193) 评论(0) 推荐(0)
摘要: 由发布机器学习模型引起的训练数据的机密性,最近受到越来越多的关注。受现有 MI 攻击和其他先前证明是“伪装”的 MI 攻击的驱动,本文通过提出一种基于游戏的方法启动了对 MI 攻击的正式研究。我们的方法揭示了许多微妙的问题,并且设计一个严格的基于游戏的定义,类似于密码学中的定义,是未来工作的有趣途径 阅读全文
posted @ 2021-12-05 15:02 Le2duo 阅读(161) 评论(0) 推荐(0)
摘要: 与其他应用程序相比,深度学习模型似乎不太可能成为隐私攻击的受害者。然而,存在确定实体是否用于训练集中的方法(称为成员推理的对抗性攻击),并且包含在“模型反演”下的技术允许仅在给定模型输出(有时还有上下文信息)的情况下重建原始数据输入。这篇博文展示了模型反转的端到端示例,并探讨了使用 TensorFl 阅读全文
posted @ 2021-12-05 13:29 Le2duo 阅读(1159) 评论(1) 推荐(0)
摘要: 本文档是关于差异隐私(Dierential Privacy)的入门读物,差异隐私是一个正式的数学框架,用于在分析或发布统计数据时确保隐私保护。最近从理论计算机科学文献中出现的不同隐私现在正处于在各种学术、行业和政府环境中实施和使用的初始阶段。本文档使用直观的插图和有限的数学形式主义,为非技术从业者提 阅读全文
posted @ 2021-12-05 10:23 Le2duo 阅读(128) 评论(0) 推荐(0)

导航