摘要:
大模型安全:模型窃取(Model Extraction) 威胁一:嵌入层参数窃取(Embedding Layer Extraction) 威胁描述 攻击者在完全黑盒(无内部结构或训练数据)的情况下,通过向大语言模型 API 发送特殊构造的文本输入(如随机词序列),并分析返回的输出 logits 或概 阅读全文
posted @ 2025-12-02 16:45
bonelee
阅读(19)
评论(0)
推荐(0)
摘要:
安全大模型的部署环境威胁 威胁一:云平台漏洞导致模型篡改与凭据盗用 威胁描述 攻击者利用托管大模型的云平台(自研或第三方)漏洞,实现: 篡改模型文件,植入后门或恶意代码; 窃取模型中的私有数据(如训练数据、业务逻辑); 盗用用户访问凭据,冒用身份调用模型服务,导致账单欺诈(如每日消费超 4.6 万美 阅读全文
posted @ 2025-12-02 16:34
bonelee
阅读(15)
评论(0)
推荐(0)
摘要:
威胁描述 许多大模型文件采用序列化格式存储,加载过程中需进行反序列化操作。若代码实现中使用了不安全的反序列化方法,且攻击者能够控制模型文件内容,则可能触发反序列化漏洞,导致远程代码执行(RCE),严重危害AI系统安全。 以 PyTorch 为例: 使用 torch.load() 加载模型时,若未采取 阅读全文
posted @ 2025-12-02 14:55
bonelee
阅读(14)
评论(0)
推荐(0)

浙公网安备 33010602011771号