摘要: ①通过对原始样本加入微小扰动所生成的对抗样本能够有效欺骗深度学习模型,并将生成对抗样本的方式称为对抗攻击。 ②对抗攻击能够使深度学习以高置信度的方式给出错误的输出,实现针对深度学习检测服务的逃逸攻击。 ③深度学习缺乏可解释性由其自身结构和运行机理决定,具体表现在以下3个方面: (1)深度神经网络的神 阅读全文
posted @ 2022-06-21 10:52 zhangyuxue 阅读(107) 评论(0) 推荐(0) 编辑