会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
durian
durian is tasty
博客园
首页
新随笔
联系
订阅
管理
2022年5月23日
【论文笔记】(FGSM)Explaining and Harnessing Adversarial Examples
摘要: 本文发表于 ICLR 2015,提出了经典的攻击方法 - FGSM(Fast Gradient Sign Method),这篇博客的第1-5节为重点部分,包括原文第5节的公式推导。 1. 对抗扰动 寻找对抗样本的目标是:1)模型将其错误分类;2)人眼无法分辨对抗扰动。已知对抗样本 $\tilde{x
阅读全文
posted @ 2022-05-23 12:03 李斯赛特
阅读(2168)
评论(0)
推荐(0)
公告