谷歌 DeepMind 推出 AI 安全框架 Frontier Safety Framework,可检测优化降低大模型风险性

谷歌 DeepMind 日前推出了一款名为“Frontier Safety Framework”的 AI 安全框架,主要用于检测 AI 模型的风险情况,号称能够主动识别“未来可能酿成重大风险的 AI 能力”,向研究人员指出相关模型“究竟在哪些层面可能会被黑客利用”。据介绍,DeepMind 目前公布的 Frontier Safety Framework 1.0 版本主要包含三个关键组件,即“识别模型是否具备酿成重大风险的能力”,“预估模型会在什么阶段具备安全隐患”、“智能优化模型防止其酿成风险”。▲ 图源 谷歌官方

谷歌 DeepMind 日前推出了一款名为“Frontier Safety Framework”的 AI 安全框架,主要用于检测 AI 模型的风险情况,号称能够主动识别“未来可能酿成重大风险的 AI 能力”,向研究人员指出相关模型“究竟在哪些层面可能会被黑客利用”。

谷歌 DeepMind 推出 AI 安全框架 Frontier Safety Framework,可检测优化降低大模型风险性

据介绍,DeepMind 目前公布的 Frontier Safety Framework 1.0 版本主要包含三个关键组件,即“识别模型是否具备酿成重大风险的能力”,“预估模型会在什么阶段具备安全隐患”、“智能优化模型防止其酿成风险”。

谷歌 DeepMind 推出 AI 安全框架 Frontier Safety Framework,可检测优化降低大模型风险性

▲ 图源 谷歌官方新闻稿

DeepMind 表示,该公司“一直在突破 AI 的边界”,所开发的模型已改变了他们对 AI 可能性的认知,虽然公司相信未来的 AI 技术将为社会带来宝贵的工具。但他们也意识到相关 AI 技术的风险性有可能对社会造成毁灭性的影响,因此他们正在逐步增强模型的安全性与可控性。

IT之家注意到,目前 DeepMind 仍在开发 Frontier Safety Framework,计划通过产业、学术及有关部门的合作来改善相关框架。

相关资讯

可评估大模型安全性,MLPerf 基准测试开发方 MLCommons 发布 AI Safety 测试 v0.5 版

全球人工智能社区、MLPerf 基准测试开发方 MLCommons 近日发布了其 AI Safety 人工智能安全基准测试的 v0.5 概念验证版本。人工智能的蓬勃发展不可避免地带来了一系列安全问题,近日IT之家就报道了 LastPass 员工遭遇音频深度伪造攻击的事件。AI Safety 可帮助模型开发方筑起更牢靠的安全“围栏”。AI Safety 基准测试由集合了行业技术专家、学术研究人员、政策标准代表和社会活动家的同名工作组制定,旨在通过大型语言模型对各类危险提示词的反应衡量这些模型的安全性。AI Safet

比当前世界最快超算 Frontier 最多快 4 倍,美国发布下一代超算 Discovery 开发招标书

据 Tom's Hardware 今日报道,美国能源部上周发布了一项关于开发新超级计算机“Discovery”的招标书(request for proposals,简称 RFP),这台超级计算机将取代目前全球已知最快的超级计算机 —— 位于橡树岭国家实验室的“Frontier”。“Discovery”的提案截止日期为 2024 年 8 月 30 日。“Discovery”计划在 2027 年或 2028 年初之前超越现有“Frontier”的性能,提供三到五倍的计算吞吐量(例如 8.5 ExaFLOPS)。橡树岭国

全球首台百亿亿级超算用AMD的GPU:性能增7倍,能效提升3倍

E 级超算,每秒钟百亿亿次运算,1 后面跟 18 个零。