gris_3  

2020年4月12日

摘要: 《ENSEMBLE ADVERSARIAL TRAINING: ATTACKS AND DEFENSES》 论文学习报告 组员:裴建新 赖妍菱 周子玉 2020-04-12 1 引言 机器学习(ML)模型往往容易受到敌对示例的攻击,恶意干扰输入,旨在在测试时误导模型。对抗性训练(Szegedy et 阅读全文
posted @ 2020-04-12 23:11 第2小组周子玉 阅读(2523) 评论(1) 推荐(0) 编辑