03 2019 档案

摘要:CW攻击原论文地址——https://arxiv.org/pdf/1608.04644.pdf 1.CW攻击的原理 CW攻击是一种基于优化的攻击,攻击的名称是两个作者的首字母。首先还是贴出攻击算法的公式表达: 下面解释下算法的大概思想,该算法将对抗样本当成一个变量,那么现在如果要使得攻击成功就要满足 阅读全文
posted @ 2019-03-30 16:08 机器学习安全小白 阅读(17645) 评论(0) 推荐(2)
摘要:MIM攻击原论文地址——https://arxiv.org/pdf/1710.06081.pdf 1.MIM攻击的原理 MIM攻击全称是 Momentum Iterative Method,其实这也是一种类似于PGD的基于梯度的迭代攻击算法。它的本质就是,在进行迭代的时候,每一轮的扰动不仅与当前的梯 阅读全文
posted @ 2019-03-29 21:34 机器学习安全小白 阅读(5819) 评论(0) 推荐(0)
摘要:PGD攻击原论文地址——https://arxiv.org/pdf/1706.06083.pdf 1.PGD攻击的原理 PGD(Project Gradient Descent)攻击是一种迭代攻击,可以看作是FGSM的翻版——K-FGSM (K表示迭代的次数),大概的思路就是,FGSM是仅仅做一次迭 阅读全文
posted @ 2019-03-28 23:13 机器学习安全小白 阅读(36810) 评论(5) 推荐(3)
摘要:FGSM原论文地址:https://arxiv.org/abs/1412.6572 1.FGSM的原理 FGSM的全称是Fast Gradient Sign Method(快速梯度下降法),在白盒环境下,通过求出模型对输入的导数,然后用符号函数得到其具体的梯度方向,接着乘以一个步长,得到的“扰动”加 阅读全文
posted @ 2019-03-28 16:31 机器学习安全小白 阅读(34627) 评论(5) 推荐(6)
摘要:对抗攻击概念: 通过对输入添加微小的扰动使得分类器分类错误,一般对用于深度学习的网络的攻击算法最为常见,应用场景包括目前大热的CV和NLP方向,例如,通过对图片添加精心准备的扰动噪声使得分类器分错,或者通过对一个句子中的某些词进行同义词替换使得情感分类错误。 对抗攻击分类: 关于攻击的分类有很多种, 阅读全文
posted @ 2019-03-28 13:14 机器学习安全小白 阅读(18924) 评论(0) 推荐(1)
摘要:诗歌生成比分类问题要稍微麻烦一些,而且第一次使用RNN做文本方面的问题,还是有很多概念性的东西~~~ 数据下载: 链接:https://pan.baidu.com/s/1uCDup7U5rGuIlIb-lnZgjQ 提取码:f436 data.py——数据处理 1 import numpy as n 阅读全文
posted @ 2019-03-27 17:19 机器学习安全小白 阅读(1077) 评论(0) 推荐(0)
摘要:第一次用LSTM,从简单做起吧~~ 注意事项: batch_first=True 意味着输入的格式为(batch_size,time_step,input_size),False 意味着输入的格式为(time_step,batch_size,input_size) 取r_out[:,-1,:],即取 阅读全文
posted @ 2019-03-26 17:09 机器学习安全小白 阅读(1063) 评论(0) 推荐(0)