摘要: 威胁名称(大类)威胁名称(小类)威胁描述威胁场景 AI供应链攻击 AI框架供应链攻击 攻击者通过对AI系统依赖的开源组件或框架进行投毒,例如在互联网上发布内置恶意功能的AI框架,诱使开发者在构建AI系统时引入这些被污染的依赖项,从而实现在目标AI系统内部植入恶意代码或后门,最终危及AI系统安全。 在 阅读全文
posted @ 2025-11-30 11:21 bonelee 阅读(21) 评论(0) 推荐(0)
摘要: 不安全的开发者模式:Prompt Injection 引发的 AI 安全威胁 威胁描述 在 AI 系统的设计、开发或调试过程中,常会引入特权模式(如“开发者模式”“调试模式”“管理员模式”),以支持测试与功能验证。若此类模式缺乏严格的访问控制与权限管理,攻击者可通过 Prompt Injection 阅读全文
posted @ 2025-11-30 10:21 bonelee 阅读(2) 评论(0) 推荐(0)
摘要: 通过投毒打破模型输出长度限制实现DOS的方法论文 案例摘要 返回威胁模式 2024年,论文《DENIAL-OF-SERVICE POISONING ATTACKS ON LARGE LANGUAGE MODELS》提出针对LLM的基于中毒的拒绝服务(P-DoS)攻击,证明注入一个为DoS目的设计的单 阅读全文
posted @ 2025-11-30 09:48 bonelee 阅读(17) 评论(0) 推荐(0)