对抗样本

对抗样本(Adversarial Examples)定义:是指通过对原始输入数据(如图像、文本、语音)施加人类难以察觉的微小扰动,导致机器学习模型(尤其是深度学习模型)做出错误预测的特殊样本。其核心矛盾在于:人类感知不到输入的变化,但模型的决策边界对这类扰动异常敏感。

对抗样本用处:对抗样本的价值体现在 **“攻防两端”**:既可能被用于恶意攻击,也能作为工具推动 AI 模型的鲁棒性提升

 

posted @ 2025-09-09 22:57  Annaprincess  阅读(22)  评论(0)    收藏  举报