因类人通用推理、可辅助制作生物武器等因素,OpenAI o1 AI 模型归类为“中等风险”

科技媒体 The Decoder 昨日(9 月 13 日)发布博文,报道称在 OpenAI 自家的“防备框架”(Preparedness Framework)下,将最新发布的 o1 AI 模型归类为“中等风险”(medium risk)。防备框架简介AI在线曾于 2023 年 12 月报道,OpenAI 成立了新的“防备”(Preparedness)团队,并提出“防备框架”指导方针。防备团队将反复评估 OpenAI 最先进、尚未发布的 AI 模型,根据不同类型的感知风险评为四个等级,从低到高依次是“低”、“中”、“

科技媒体 The Decoder 昨日(9 月 13 日)发布博文,报道称在 OpenAI 自家的“防备框架”(Preparedness Framework)下,将最新发布的 o1 AI 模型归类为“中等风险”(medium risk)。

防备框架简介

AI在线曾于 2023 年 12 月报道,OpenAI 成立了新的“防备”(Preparedness)团队,并提出“防备框架”指导方针。

防备团队将反复评估 OpenAI 最先进、尚未发布的 AI 模型,根据不同类型的感知风险评为四个等级,从低到高依次是“低”、“中”、“高”和“严重”。根据新的指导方针,OpenAI 将只推出评级为“低”和“中”的模型。

OpenAI o1 模型

因类人通用推理、可辅助制作生物武器等因素,OpenAI o1 AI 模型归类为“中等风险”

OpenAI 公司在官方新闻稿中表示,最终确定 o1 模型归类为“中等风险”主要有以下两个原因:

类人推理能力

o1 模型展现出类似人类的推理能力,并能在类似主题上产生与人类撰写同样令人信服的论点。

这种说服力并非 o1 独有,先前的 AI 模型也已展示出此能力,有时甚至超越人类表现。

可辅助制作生物武器

评估显示,o1 模型能辅助专家复制已知生物武器威胁。

OpenAI 宣称,o1 模型显著提升数学和科学领域的能力。

例如,在全美奥林匹克数学队()USA Mathematical Olympiad,简称 USAMO)的预选赛中,新模型的表现能跻身美国前 500 名学生之列,并且在物理、生物和化学问题的基准测试中,准确度超过了人类博士水平。

因类人通用推理、可辅助制作生物武器等因素,OpenAI o1 AI 模型归类为“中等风险”

OpenAI 首次将其模型在化学、生物、放射性和核武器(CBRN)风险方面的评级定为“中性”。这些模型的发布伴随着对其潜在危险的多次警告。

相关资讯

o1 研发团队完整采访:Ilya早期曾参与,灵感源于AlphaGo

自从 OpenAI 的 o1 问世以来,它强大的推理能力就承包了 AI 圈近期的热搜。不需要专门训练,它就能直接拿下数学奥赛金牌,甚至可以在博士级别的科学问答环节上超越人类专家。展示 o1 实力的 demo,我们看了不少,评估 o1 表现的评测,全网比比皆是,关于 o1 技术路线的讨论也如火如荼,引发了广泛的关注和深入的思考。不过 o1 背后的故事,还鲜为人知,那些在幕后默默付出的团队成员们,他们的故事同样值得被讲述和铭记。刚刚,OpenAI 发布了 o1 研发团队的完整访谈,为我们揭秘了 o1 的「成长历程」。o

LeCun批评o1根本不像研究,Noam Brown回怼:已发表的研究都是废话

图灵奖三巨头之一 Yann LeCun 又和别人吵起来了,这次是 Noam Brown。Noam Brown 为 OpenAI o1 模型的核心贡献者之一,此前他是 Meta FAIR 的一员,主导了曾火遍一时的 CICERO 项目,在 2023 年 6 月加入 OpenAI  。这次吵架的内容就是围绕 o1 展开的。众所周知,从 AI 步入新的阶段以来,OpenAI 一直选择了闭源,o1 的发布也不例外。这也引来了广大网友的吐槽,干脆叫 CloseAI 算了,反观 Meta,在开源领域就做的很好,o1 的发布,更

OpenAI o1 推理模型 API 上线,仅面向特定开发者开放

“OpenAI 12 天”活动进入第 9 天,OpenAI 今日宣布,其“推理”人工智能模型 o1 正式通过 API 向部分开发者开放,并同步更新了包括 GPT-4o、实时 API 以及微调 API 等多项开发者工具。