有害
英国 AI 安全研究所轻松越狱主要大语言模型,令其输出有害内容
英国政府下属的人工智能安全研究所(AISI)今日发布了一份新报告,揭示了一个值得重视的事实 —— 当前的 AI 系统可能并非像创建者所说的那样“安全”。报告指出,参与测试的四个大语言模型(IT之家注:报告未提到这些模型的具体名称)“极易受到基本越狱攻击”的影响,更有一些模型在被越狱之前,就主动生成了“有害”内容。图源 Pexels当前,大部分公开可用的语言模型都内置了部分保护措施,从而防止其生成有害或非法的内容回应。而“越狱”就意味着通过技术手段“欺骗”模型,来忽略上述措施。英国 AI 安全研究所使用了近期经过标准
5/20/2024 10:14:59 PM
清源
- 1
资讯热榜
罗永浩 Jarvis 初创项目“J1 Assistant AI 助理”上线,利用语音与大模型互动
SK 海力士宣布参展 CES 2025,将展示 122TB 企业级固态硬盘等产品
突破非视距条件依赖!大规模区域、低成本的UWB-LiDAR标定与单次定位框架
阿里云与黑芝麻智能完成大模型车载芯片级适配
类 Mac Mini 大小的个人 AI 超算:英伟达 Project Digits 发布,起价 3000 美元
清华大学推 AutoDroid-V2:AI 离线在线协同,优化移动端自动化 GUI 控制
斯坦福AI科研神器开源,一键成文GPT-4o mini加持!科研写作彻底解放双手
AI模拟细胞,走向全新虚拟生命,斯坦福团队呼吁是时候走出全新的一步了
标签云
AI
模型
人工智能
AIGC
OpenAI
AI绘画
ChatGPT
机器人
数据
生成
谷歌
训练
视频
智能
学习
Midjourney
GPT
大模型
用户
AI创作
图像
LLM
微软
开源
技术
Meta
论文
Stable Diffusion
生成式
算法
蛋白质
芯片
马斯克
计算
神经网络
AI设计
Gemini
Sora
研究
腾讯
课程
代码
开发者
场景
伟达
GPU
3D
模态
预测
Transformer
华为
文本
驾驶
英伟达
神器推荐
机器学习
AI视频
语言
干货合集
LLaMA
深度学习
2024
算力
搜索
苹果
科技
视频生成
AI应用场景
应用
百度
写作
特斯拉
机器
安全
具身智能
Copilot
AI for Science
语音
prompt
AGI