ECCV 2024|牛津大学&港科提出毫秒级文生图安全检测框架Latent Guard

最近的文本到图像生成器由文本编码器和扩散模型组成。 如果在没有适当安全措施的情况下部署,它们会产生滥用风险(左图)。 我们提出了潜在保护方法(右图),这是一种旨在阻止恶意输入提示的安全方法。

最近的文本到图像生成器由文本编码器和扩散模型组成。如果在没有适当安全措施的情况下部署,它们会产生滥用风险(左图)。我们提出了潜在保护方法(右图),这是一种旨在阻止恶意输入提示的安全方法。我们的想法是在文本编码器的基础上,检测学习的潜在空间中黑名单概念的存在。这使我们能够检测到超出其确切措辞的黑名单概念,并且还扩展到一些对抗性攻击(“<ADV>”)。黑名单在测试时是可调的,可以添加或删除概念而无需重新训练。被阻止的提示不会被扩散模型处理,从而节省计算成本。

ECCV 2024|牛津大学&港科提出毫秒级文生图安全检测框架Latent Guard

随着生成高质量图像的能力,文本到图像(T2I)模型可能被滥用于创建不当内容。为了防止滥用,现有的安全措施要么基于文本黑名单,这很容易被规避,要么基于有害内容分类,这需要大量数据集进行训练且灵活性较低。因此,我们提出了潜在保护(Latent Guard),这是一个旨在改善文本到图像生成安全措施的框架。受到基于黑名单方法的启发,潜在保护在T2I模型的文本编码器上学习了一个潜在空间,在该空间中可以检查输入文本嵌入中有害概念的存在。我们提出的框架由一个特定于该任务的数据生成管道、专门的架构组件和一种对比学习策略组成,以从生成的数据中受益。我们的方法在三个数据集上进行了验证,并与四个基准进行了对比。

ECCV 2024|牛津大学&港科提出毫秒级文生图安全检测框架Latent Guard

论文标题:Latent Guard: a Safety Framework for Text-to-image Generation

论文链接:https://arxiv.org/abs/2404.08031

代码&数据集链接:https://github.com/rt219/LatentGuard

方法与数据集构建

我们首先生成围绕黑名单概念的安全和不安全提示的数据集(左侧)。然后,我们利用预训练的文本编码器提取特征,并通过我们的嵌入映射层将其映射到一个学习的潜在空间(中间)。在训练过程中,只有嵌入映射层会更新,所有其他参数保持冻结状态。我们通过在提取的嵌入上施加对比损失进行训练,拉近不安全提示和概念的嵌入,同时将它们与安全提示的嵌入区分开来(右侧)。

ECCV 2024|牛津大学&港科提出毫秒级文生图安全检测框架Latent Guard

对于 C 个概念,我们根据第 3.1 节中的描述,使用大型语言模型 (LLM) 对不安全的 U 提示进行采样。然后,我们通过用同义词替换 c(同样使用 LLM)来创建同义词提示,并得到 U^syn。此外,我们使用对抗攻击方法将 c 替换为 "<ADV>" 对抗文本 (U^adv)。安全提示 S 从 U 中获得。这对于每个 ID 和 OOD 数据都执行。

实验结果

我们提供了 Latent Guard 和基准模型在 CoPro 上的准确率 (a) 和 AUC (b)。在所有设置中,我们的排名均为第一或第二,仅在显式 ID 训练数据上进行训练。图 (c) 显示了 CoPro 提示和生成图像的示例。不安全的生成图像证明了我们数据集的质量。Latent Guard 是唯一能够阻止所有测试提示的方法。

ECCV 2024|牛津大学&港科提出毫秒级文生图安全检测框架Latent Guard

在未见数据集上的评估。我们在现有数据集上测试了 Latent Guard,包括 Unsafe Diffusion 和 I2P++。尽管输入的 T2I 提示分布与 CoPro 中的分布不同,我们仍然超越了所有基准,并实现了稳健的分类。

ECCV 2024|牛津大学&港科提出毫秒级文生图安全检测框架Latent Guard

速度和特征空间分

计算成本。我们测量了在 c_check 中不同批次大小和概念下的处理时间和内存使用。在所有情况下,资源需求都很有限。

ECCV 2024|牛津大学&港科提出毫秒级文生图安全检测框架Latent Guard

特征空间分析。在 CoPro 上训练 Latent Guard 会自然地出现安全/不安全区域(右侧)。在 CLIP 潜在空间中,安全和不安全的嵌入混合在一起(左侧)。

ECCV 2024|牛津大学&港科提出毫秒级文生图安全检测框架Latent Guard

更多研究细节,可参考原论文。

相关资讯

攻击成功率从 3% 到接近 100%,利用空格键可绕过 Meta AI 模型安全系统

Meta 公司上周在发布 Llama 3.1 AI 模型的同时,还发布了 Prompt-Guard-86M 模型,主要帮助开发人员检测并响应提示词注入和越狱输入。AI在线在这里简要补充下背景知识:提示词注入(prompt injection):将恶意或非预期内容添加到提示中,以劫持语言模型的输出。提示泄露和越狱实际上是这种攻击的子集;提示词越狱(prompt jailbreaks):绕过安全和审查功能。不过根据科技媒体 theregister 报道,这个防止 AI 提示词注入和越狱的模型,本身也存在漏洞,用户只需要

实时文生图速度提升5-10倍,清华LCM/LCM-LoRA爆火,浏览超百万、下载超20万

生成式模型进入「实时」时代?文生图、图生图已经不是什么新鲜事。但在使用这些工具的过程中,我们发现它们通常运行缓慢,导致我们要等一段时间才能拿到生成结果。但最近,一种名叫「LCM」的模型改变了这种情况,它甚至能做到实时的连续生图。                               图源: 的全称是 Latent Consistency Models(潜在一致性模型),由清华大学交叉信息研究院的研究者们构建。在这个模型发布之前,Stable Diffusion 等潜在扩散模型(LDM)由于迭代采样过程计算量大

Tokenization不存在了?Meta最新研究,无需Tokenizer的架构来了

BLT 在许多基准测试中超越了基于 token 的架构。 最近几天,来自 Meta 、芝加哥大学等机构的合著论文《 Byte Latent Transformer: Patches Scale Better Than Tokens 》火了,在 Hacker News 上受到广泛讨论。 有人表示,非常期待这项研究取得成功,这样就可以和 tokenizer 拜拜了!