摘要: 许多针对大型语言模型的攻击都依赖一种名为提示注入的技术。攻击者通过构造特定的提示语来操纵模型的输出,使其偏离原本的设计目的。提示注入可能导致人工智能执行异常或不安全的操作,例如错误调用敏感 API,或生成违反既定规则和使用规范的内容。 阅读全文
posted @ 2025-12-26 17:40 蚁景网安实验室 阅读(146) 评论(0) 推荐(0)