Guard
ECCV 2024|牛津大学&港科提出毫秒级文生图安全检测框架Latent Guard
最近的文本到图像生成器由文本编码器和扩散模型组成。 如果在没有适当安全措施的情况下部署,它们会产生滥用风险(左图)。 我们提出了潜在保护方法(右图),这是一种旨在阻止恶意输入提示的安全方法。
11/5/2024 10:48:00 AM
新闻助手
攻击成功率从 3% 到接近 100%,利用空格键可绕过 Meta AI 模型安全系统
Meta 公司上周在发布 Llama 3.1 AI 模型的同时,还发布了 Prompt-Guard-86M 模型,主要帮助开发人员检测并响应提示词注入和越狱输入。AI在线在这里简要补充下背景知识:提示词注入(prompt injection):将恶意或非预期内容添加到提示中,以劫持语言模型的输出。提示泄露和越狱实际上是这种攻击的子集;提示词越狱(prompt jailbreaks):绕过安全和审查功能。不过根据科技媒体 theregister 报道,这个防止 AI 提示词注入和越狱的模型,本身也存在漏洞,用户只需要
7/31/2024 10:28:07 AM
故渊
- 1
资讯热榜
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
AI绘画
DeepSeek
数据
机器人
模型
谷歌
大模型
Midjourney
智能
用户
开源
学习
GPT
微软
Meta
AI创作
图像
技术
论文
Stable Diffusion
马斯克
Gemini
算法
蛋白质
生成式
芯片
代码
英伟达
腾讯
神经网络
计算
研究
Sora
3D
Anthropic
AI for Science
AI设计
机器学习
GPU
开发者
AI视频
场景
华为
预测
百度
人形机器人
伟达
苹果
Transformer
深度学习
模态
xAI
字节跳动
Claude
大语言模型
搜索
驾驶
文本
具身智能
神器推荐
Copilot
LLaMA
算力
视频生成
安全
干货合集
视觉
应用
大型语言模型
科技
亚马逊
特斯拉
AGI
训练
2024