论文翻译:LDP-Fed: Federated Learning with Local Differential Privacy
摘要:本文介绍LDP-Fed,这是一种新颖的联合学习系统,具有使用本地差分隐私(LDP)的正式隐私保证。开发现有的LDP协议主要是为了确保收集单个数字或分类值(例如Web访问日志中的点击计数)时的数据保密性。但是,在联合学习模型中,参数更新是从每个参与者处迭代收集的,并且由高精度的高维连续值(小数点后10位数)组成,这使得现有的LDP协议不适用。为了应对LDP馈送中的这一挑战,我们设计和开发了两种新颖的方法。首先,LDP-Fed的LDP模块为正式的差分隐私保证提供了保证,可以在多个个体参与者的私有数据集的大规模神经网络的联合训练中重复收集模型训练参数。其次,LDP-Fed实现了一系列选择和过滤技术,用于干扰和与参数服务器共享选择的参数更新。我们验证了使用压缩LDP协议部署的系统在针对公共数据训练深度神经网络时的有效性。在模型准确性,隐私保护和系统功能方面,我们将这种版本的LDP-Fed(造币CLDP-Fed)与其他最新方法进行了比较。
1、介绍
本文做出了两个原创性贡献。首先,我们开发了一种联合训练方法,可以根据本地隐私预算对复杂模型参数更新执行基于LDP的扰动,同时最大程度地减少噪声对联合ML训练过程的巨大影响。其次,我们还提出了参数更新共享方法,用于在迭代LDP-Fed训练过程的各个回合中选择性共享模型参数更新。在准确性和系统功能方面,我们根据最新的隐私保护FL方法评估LDP-Fed。
2、先验知识

浙公网安备 33010602011771号