摘要: Variance in Adversarial Attack for Customized Diffusion Models IDProtector:一种对抗性噪声编码器,用于防范保留身份的图像生成 Related Works Tuning-based Customized Generation D 阅读全文
posted @ 2026-04-21 17:04 永是珞珈一恐龙 阅读(83) 评论(1) 推荐(0)
摘要: CogVideo与CogVideoX模型结构 VQ-VAE(CogVideo使用的编码器) VQ-VAE其实就是一个AE(自编码器)而不是VAE(变分自编码器) PixelCNN 要追溯VQ-VAE的思想,就不得不谈到自回归模型。可以说,VQ-VAE做生成模型的思路,源于PixelRNN、Pixel 阅读全文
posted @ 2026-04-20 11:56 永是珞珈一恐龙 阅读(126) 评论(0) 推荐(0)
摘要: Anti-Tamper Protection for Unauthorized Individual Image Generation 图1.(a)伪造攻击者通过从社交媒体上拍照生成数据所有者的虚假个人图像,并将其提交给服务提供商。(b)数据所有者可以在服务提供商的协助下,向其图像中注入保护性扰动, 阅读全文
posted @ 2026-03-26 21:31 永是珞珈一恐龙 阅读(29) 评论(0) 推荐(1)
摘要: 扩散模型对抗样本经典baselines baselines: AdvDM(+) [30] [ICML23] AdvDM(-) [59] [ICLR24] PhotoGuard [40] [Arxiv23] Mist [29] [Arxiv23] SDS(+) [59] [ICLR24] SDS(-) 阅读全文
posted @ 2026-03-26 16:55 永是珞珈一恐龙 阅读(72) 评论(0) 推荐(0)
摘要: 纯化方法利用生成模型在分类前去除对抗噪声,从而增强对对抗性操作的抵抗能力。 阅读全文
posted @ 2026-03-04 17:36 永是珞珈一恐龙 阅读(142) 评论(0) 推荐(0)
摘要: 一、研究背景与核心问题 扩散模型(DMs)在文本到图像生成领域取得显著成功,但存在生成有害内容(如NSFW图像)和侵犯版权等安全风险。机器遗忘(概念擦除)技术旨在缓解这些风险,却易受对抗性提示攻击——通过对输入提示进行微小扰动,可使已完成概念擦除的扩散模型重新生成需擦除的内容(如裸体图像)。 核心研 阅读全文
posted @ 2025-09-11 21:20 永是珞珈一恐龙 阅读(234) 评论(0) 推荐(0)
摘要: Sparse Autoencoder as a Zero-Shot Classifier for Concept Erasing in Text-to-Image Diffusion Models 这篇论文提出了一种名为Interpret then Deactivate (ItD) 的框架,旨在文本 阅读全文
posted @ 2025-08-10 10:20 永是珞珈一恐龙 阅读(150) 评论(0) 推荐(0)
摘要: MMA-Diffusion MMA-Diffusion: MultiModal Attack on Diffusion Models 这篇论文提出的MMA-Diffusion(多模态攻击框架) 旨在通过文本和图像双模态攻击,绕过文本到图像(T2I)模型的安全机制(如提示过滤器和后处理安全检查器),生 阅读全文
posted @ 2025-07-26 15:10 永是珞珈一恐龙 阅读(432) 评论(0) 推荐(0)
摘要: Safe Latent Diffusion Safe Latent Diffusion: Mitigating Inappropriate Degeneration in Diffusion Models 这篇论文提出的安全潜在扩散模型(Safe Latent Diffusion, SLD) 核心是 阅读全文
posted @ 2025-07-24 20:35 永是珞珈一恐龙 阅读(166) 评论(0) 推荐(0)
摘要: 一维二维滑动窗口 from collections import deque def sliding_window(nums,k): #nums为一维数组,k为窗口大小 max_result=[] #用来记录每次的最大值 min_result=[] #用来记录每次的最小值 q_max=deque() 阅读全文
posted @ 2025-04-11 19:10 永是珞珈一恐龙 阅读(64) 评论(0) 推荐(0)