google DeepMind 日前推出了一款名为“Frontier Safety Framework”的 AI 安全框架,主要用于检测 AI 模型的危急情况,号称能够主动鉴别“将来能够形成严重危急的 AI 威力”,向研究人员指出相干模型“究竟在哪些层面能够会被黑客利用”。据介绍,DeepMind 当前公布的 Frontier Safety Framework 1.0 版本主要包含三个关键组件,即“鉴别模型是否具有形成严重危急的威力”,“预估模型会在什么阶段具有安全隐患”、“智能优化模型防止其形成危急”。▲ 图源 google官方
google DeepMind 日前推出了一款名为“Frontier Safety Framework”的 AI 安全框架,主要用于检测 AI 模型的危急情况,号称能够主动鉴别“将来能够形成严重危急的 AI 威力”,向研究人员指出相干模型“究竟在哪些层面能够会被黑客利用”。
据介绍,DeepMind 当前公布的 Frontier Safety Framework 1.0 版本主要包含三个关键组件,即“鉴别模型是否具有形成严重危急的威力”,“预估模型会在什么阶段具有安全隐患”、“智能优化模型防止其形成危急”。
▲ 图源 google官方新闻稿
DeepMind 表示,该公司“一直在突破 AI 的边界”,所开发的模型已改变了他们对 AI 能够性的认知,虽然公司相信将来的 AI 技能将为社会带来珍贵的工具。但他们也意识到相干 AI 技能的危急性有能够对社会造成毁灭性的影响,因此他们正在逐步增强模型的安全性与可控性。
IT之家注意到,当前 DeepMind 仍在开发 Frontier Safety Framework,计划通过产业、学术及有关部门的合作来改善相干框架。