摘要:
Adversarial Attack(对手的攻击) 把训练好的神经网络用在应用上,还需要让其输入人为的恶意行为,要在有人试图欺骗他的情况下得到高的正确率 例如:影像辨识,输入的图片加入一些杂讯(这些杂讯可能肉眼看不出来),使得输出错误,并输入某个指定的错误输出 无目标攻击:使输出结果与正确答案的差距 阅读全文
posted @ 2023-07-21 16:54
天亮yǐ后
阅读(110)
评论(0)
推荐(0)
浙公网安备 33010602011771号