DeepInception
用深度催眠诱导LLM「越狱」,香港浸会大学初探可信大语言模型
尽管大语言模型 LLM (Large Language Model) 在各种应用中取得了巨大成功,但它也容易受到一些 Prompt 的诱导,从而越过模型内置的安全防护提供一些危险 / 违法内容,即 Jailbreak。深入理解这类 Jailbreak 的原理,加强相关研究,可反向促进人们对大模型安全性防护的重视,完善大模型的防御机制。 不同于以往采用搜索优化或计算成本较高的推断方法来生成可 Jailbreak 的 Prompt,本文受米尔格拉姆实验(Milgram experiment)启发,从心理学视角提出了一种
11/22/2023 2:17:00 PM
TMLRGroup
- 1
资讯热榜
罗永浩 Jarvis 初创项目“J1 Assistant AI 助理”上线,利用语音与大模型互动
SK 海力士宣布参展 CES 2025,将展示 122TB 企业级固态硬盘等产品
阿里云与黑芝麻智能完成大模型车载芯片级适配
突破非视距条件依赖!大规模区域、低成本的UWB-LiDAR标定与单次定位框架
清华大学推 AutoDroid-V2:AI 离线在线协同,优化移动端自动化 GUI 控制
斯坦福AI科研神器开源,一键成文GPT-4o mini加持!科研写作彻底解放双手
啥玩意值8499元?马斯克在线打call,国产AI威震天秒售罄
AI模拟细胞,走向全新虚拟生命,斯坦福团队呼吁是时候走出全新的一步了
标签云
AI
模型
人工智能
AIGC
OpenAI
AI绘画
ChatGPT
机器人
数据
生成
谷歌
训练
视频
智能
学习
Midjourney
GPT
大模型
用户
AI创作
图像
LLM
微软
开源
技术
Meta
论文
Stable Diffusion
生成式
算法
蛋白质
芯片
马斯克
计算
神经网络
AI设计
Gemini
Sora
研究
腾讯
课程
代码
开发者
场景
伟达
GPU
3D
模态
预测
Transformer
华为
文本
驾驶
神器推荐
英伟达
AI视频
机器学习
语言
干货合集
LLaMA
深度学习
2024
算力
搜索
苹果
科技
视频生成
AI应用场景
应用
百度
写作
机器
特斯拉
安全
具身智能
Copilot
语音
AI for Science
prompt
AGI