gris_3  

摘要: Functional mechanism: regression analysis under differential privacy 论文学习报告 组员:裴建新 赖妍菱 周子玉 2020-03-10 1 背景 当今社会,互联网技术正日益深入人们的生活.随着网络和信息化产业的迅猛发展,数据以前所未 阅读全文
posted @ 2020-03-11 10:15 第2小组周子玉 阅读(928) 评论(4) 推荐(2) 编辑

2020年4月12日

摘要: 《ENSEMBLE ADVERSARIAL TRAINING: ATTACKS AND DEFENSES》 论文学习报告 组员:裴建新 赖妍菱 周子玉 2020-04-12 1 引言 机器学习(ML)模型往往容易受到敌对示例的攻击,恶意干扰输入,旨在在测试时误导模型。对抗性训练(Szegedy et 阅读全文
posted @ 2020-04-12 23:11 第2小组周子玉 阅读(2523) 评论(1) 推荐(0) 编辑

2020年4月1日

摘要: Output Diversified Initialization for Adversarial Attacks 学习报告 小组成员:裴建新、赖妍菱、周子玉 1 引言 深度神经网络在图像分类方面取得了很大的成功。然而,它们很容易受到对抗性样例的影响,由视觉上无法检测到的噪声所产生的扰动图像可能会导 阅读全文
posted @ 2020-04-01 15:34 第2小组周子玉 阅读(928) 评论(5) 推荐(0) 编辑

2020年3月27日

摘要: 《Explaining and harnessing adversarial examples》 论文学习报告 组员:裴建新 赖妍菱 周子玉 2020-03-27 1 背景 Szegedy有一个有趣的发现:有几种机器学习模型,包括最先进的神经网络,很容易遇到对抗性的例子。所谓的对抗性样例就是对数据集 阅读全文
posted @ 2020-03-27 16:34 第2小组周子玉 阅读(1027) 评论(5) 推荐(0) 编辑

2020年3月2日

摘要: 听完第四组的报告,我们小组对差分隐私的相关知识进行了搜索、学习和讨论,结合第四组的报告内容,有了一些新的认识和了解。接下来我们将针对差分隐私的思想做一个大致梳理。 为什么会产生差分隐私? 虽然已有的隐私保护方案层出不穷,但是它们有一个共同的缺点——都依赖攻击者的背景知识,没有对攻击模型做出合理假设。 阅读全文
posted @ 2020-03-02 22:06 第2小组周子玉 阅读(610) 评论(0) 推荐(2) 编辑
 
摘要: 布尔加密技术报告 组员:赖妍菱 裴建新 周子玉 2020-03-02 1 相关知识介绍 1.1 门电路 实现基本逻辑运算和复合逻辑运算的单元电路.它规定各个输入信号之间满足某种逻辑关系时,才有信号输出.从逻辑关系看,门电路的输入端或输出端只有两种状态,无信号用“0”表示,有信号用“1”表示.也可以这 阅读全文
posted @ 2020-03-02 20:40 第2小组周子玉 阅读(413) 评论(1) 推荐(1) 编辑