OpenAI解雇两名Ilya团队成员,与「宫斗」泄密有关?

半年来内斗剧情跌宕起伏的企业 OpenAI,再次传来人员变动的消息。The Information 报道,据知情人士透露,OpenAI 已经解雇了两名涉嫌泄露信息的员工。一位是 Leopold Aschenbrenner,是 OpenAI 超级对齐团队的研究员。他是 OpenAI 首席科学家 Ilya Sutskever 的盟友,去年秋天,Ilya 参与了逼走 OpenAI CEO Sam Altman 的行动,但以失败告终。另一名被解雇的员工 Pavel Izmailov 在 OpenAI 从事推理相关的研究,也

半年来内斗剧情跌宕起伏的企业 OpenAI,再次传来人员变动的消息。

The Information 报道,据知情人士透露,OpenAI 已经解雇了两名涉嫌泄露信息的员工。

图片

一位是 Leopold Aschenbrenner,是 OpenAI 超级对齐团队的研究员。

图片

他是 OpenAI 首席科学家 Ilya Sutskever 的盟友,去年秋天,Ilya 参与了逼走 OpenAI CEO Sam Altman 的行动,但以失败告终。

另一名被解雇的员工 Pavel Izmailov 在 OpenAI 从事推理相关的研究,也曾在超级对齐团队工作过一段时间。

图片

二人曾在团队的多项工作中合作,包括这篇被广泛关注的《Weak-to-Strong Generalization》(https://arxiv.org/abs/2312.09390)。

图片

目前尚不清楚的是,这两名被解雇的员工到底泄露了哪些信息。

两人的离职,是 Sam Altman 今年 3 月重新担任董事会成员以来首次公开的人事变动。在此之前,OpenAI 的非营利性董事会领导了一项调查,为 Altman 在去年 11 月被短暂解雇前的行为开脱罪责。

图片

回顾「宫斗」事件的细节,我们或许可以发现一些端倪。在下台之前,OpenAI 的员工在公司是否足够安全地开发人工智能的问题上存在分歧。

联合创始人 Ilya Sutskever 是解雇 Altman 的董事会成员之一,董事会称 Altman 缺乏坦诚。在 Altman 重新担任 CEO 后,Sutskever 离开了董事会。自那场风波后,他基本上就没有再出现在 OpenAI 的舞台上。

但宫斗事件后,Sam Altman 也没有回避过对 Ilya 的赞美,表示自己非常尊重并欣赏 Ilya,希望未来的工作生涯都能和他合作:「Ilya 并没有看到通用人工智能,但 Ilya 是人类的功臣。关于安全问题 Ilya 想了很多,也担心了很多。」

「有人说 Ilya 看到了一些东西,可能是 AGI,这让他内心不安。所以,Ilya 看到了什么?」

Sam Altman:「Ilya 看到的不是 AGI,没有人见到过 AGI,我们还没有建造过 AGI。我确实认为我欣赏 Ilya 的众多原因之一是他非常认真地对待 AGI 和安全问题,从广义上讲,这包括 AGI 将对社会产生的影响。随着 OpenAI 不断取得重大进展,Ilya 是陪伴我时间最久的人之一。在过去的几年里,他总谈起这意味着什么、我们需要做什么来确保我们做的是对的,确保我们成功完成使命。所以 Ilya 并没有看到通用人工智能,但 Ilya 是人类的功臣,他想了很多,也担心了很多。」

在公司内部,Aschenbrenner 也是 OpenAI 超级对齐团队的负责人之一。该团队由 Ilya Sutskever 去年夏天组建,目的是开发控制和引导高级人工智能(即超级智能)的技术,这些高级人工智能可能会解决核聚变问题或殖民其他星球。

Aschenbrenner 19 岁时毕业于哥伦比亚大学,此前曾在未来基金(Future Fund)工作,这是 FTX 前 CEO Sam Bankman-Fried 创办的慈善基金,旨在资助「改善人类长期前景」的项目。

显然,Aschenbrenner 更倾向于「有效利他主义」(effective altruism)的立场,将解决人工智能的危险性置于短期利润或生产力利益之上。就在一年前,Aschenbrenner 加入了 OpenAI。

当初解雇 Altman 的几位董事会成员也与有效利他主义有关。例如,Tasha McCauley 是 FTX 资助的慈善机构、有效利他主义中心的母公司 Effective Ventures 的董事会成员,Helen Toner 曾在以有效利他主义为重点的慈善项目工作过。而这两个人,都在 Altman 11 月底重新担任 CEO 的时候离开了董事会。

至于 Pavel Izmailov,此前就已经在个人主页披露了未来计划:2025 年秋季加入纽约大学任助理教授。

图片

对于这则消息,当事双方和 Ilya 都没有正式回复。可能大家最关心的是, Ilya 会不会随后离开 OpenAI?只能说很难预测。

参考链接:https://www.theinformation.com/articles/openai-researchers-including-ally-of-sutskever-fired-for-alleged-leaking

相关资讯

o1 研发团队完整采访:Ilya早期曾参与,灵感源于AlphaGo

自从 OpenAI 的 o1 问世以来,它强大的推理能力就承包了 AI 圈近期的热搜。不需要专门训练,它就能直接拿下数学奥赛金牌,甚至可以在博士级别的科学问答环节上超越人类专家。展示 o1 实力的 demo,我们看了不少,评估 o1 表现的评测,全网比比皆是,关于 o1 技术路线的讨论也如火如荼,引发了广泛的关注和深入的思考。不过 o1 背后的故事,还鲜为人知,那些在幕后默默付出的团队成员们,他们的故事同样值得被讲述和铭记。刚刚,OpenAI 发布了 o1 研发团队的完整访谈,为我们揭秘了 o1 的「成长历程」。o

LeCun批评o1根本不像研究,Noam Brown回怼:已发表的研究都是废话

图灵奖三巨头之一 Yann LeCun 又和别人吵起来了,这次是 Noam Brown。Noam Brown 为 OpenAI o1 模型的核心贡献者之一,此前他是 Meta FAIR 的一员,主导了曾火遍一时的 CICERO 项目,在 2023 年 6 月加入 OpenAI  。这次吵架的内容就是围绕 o1 展开的。众所周知,从 AI 步入新的阶段以来,OpenAI 一直选择了闭源,o1 的发布也不例外。这也引来了广大网友的吐槽,干脆叫 CloseAI 算了,反观 Meta,在开源领域就做的很好,o1 的发布,更

OpenAI o1 推理模型 API 上线,仅面向特定开发者开放

“OpenAI 12 天”活动进入第 9 天,OpenAI 今日宣布,其“推理”人工智能模型 o1 正式通过 API 向部分开发者开放,并同步更新了包括 GPT-4o、实时 API 以及微调 API 等多项开发者工具。