OpenAI 高管 Jan Leike 离职,批判公司内部已不再将“安全”视为优先

感谢继 OpenAI 共同创始人 Ilya Sutskever 离职之后,另一名 OpenAI 高管 Jan Leike 在 X 平台发布贴文,宣布他已经在上周离开公司。据悉,Jan Leike 是 OpenAI 旗下 Superalignment(超级对齐)团队的共同主管,他表示最近几年 OpenAI 已经不惜内部文化,忽视安全准则,执意高速推出“吸引眼球”的产品。IT之家经查询得知,OpenAI 在 2023 年 7 月设立 Superalignment 团队,任务是“确保那些具备‘超级智能’、‘比人类还聪明’
感谢继 OpenAI 共同创始人 Ilya Sutskever 离职之后,另一名 OpenAI 高管 Jan Leike 在 X 平台发布贴文,宣布他已经在上周离开公司。

OpenAI 高管 Jan Leike 离职,批判公司内部已不再将“安全”视为优先

据悉,Jan Leike 是 OpenAI 旗下 Superalignment(超级对齐)团队的共同主管,他表示最近几年 OpenAI 已经不惜内部文化,忽视安全准则,执意高速推出“吸引眼球”的产品。

IT之家经查询得知,OpenAI 在 2023 年 7 月设立 Superalignment 团队,任务是“确保那些具备‘超级智能’、‘比人类还聪明’的 AI 系统能够遵循人类的意图”。当时 OpenAI 承诺在未来的 4 年内投入 20% 的计算能力来保证 AI 模型的安全性,而根据彭博社报道,OpenAI 目前据称已经解散了 Superalignment 团队。

OpenAI 高管 Jan Leike 离职,批判公司内部已不再将“安全”视为优先

Leike 表示,他加入 OpenAI 的原因是“他认为 OpenAI 是世界上最适合进行 AI 安全研究的场所”。然而目前 OpenAI 领导层已经高度忽视了模型的安全性,将核心优先事项放在盈利与获取计算资源上。

截至发稿,OpenAI 的 Greg Brockman 和 Sam Altman 已经联名对 Leike 的看法作出回应,表示他们“已经提高了对于 AI 风险的认知,未来还会不断提升安全工作以应对每款新模型的利害关系”,IT之家翻译如下:

我们非常感谢 Jan 为 OpenAI 所做的一切,我们知道他将继续在外部为我们的使命做出贡献。鉴于他离职引起的一些问题,我们想解释一下我们对整体战略的思考。

首先,我们已经提高了对 AGI 风险和机遇的认识,以便世界更好地为其做好准备。我们反复展示了深度学习扩展带来的巨大可能性并分析其影响;在国际上呼吁对 AGI 进行治理(在这种呼吁变得流行之前);并且在评估 AI 系统的灾难性风险的科学领域进行了开创性的工作。

其次,我们正在为越来越强大的系统的安全部署奠定基础。首次让新技术安全化并不容易。例如,我们的团队做了大量工作以安全地将 GPT-4 带给世界,并且自那以后,持续改进模型行为和滥用监测,以应对从部署中学到的经验教训。

第三,未来会比过去更难。我们需要不断提升我们的安全工作,以匹配每个新模型的风险。去年,我们采用了准备框架来系统化我们的工作方法。

现在是谈谈我们如何看待未来的好时机。

随着模型能力的不断提升,我们预计它们将更深入地与世界整合。用户将越来越多地与由多个多模态模型和工具组成的系统互动,这些系统可以代表用户采取行动,而不仅仅是通过文本输入和输出与单一模型对话。

我们认为这些系统将非常有益并对人们有帮助,并且可以安全地交付,但这需要大量的基础工作。这包括在训练过程中对其连接内容的深思熟虑,解决诸如可扩展监督等难题,以及其他新型安全工作。在这个方向上构建时,我们尚不确定何时能达到发布的安全标准,如果这会推迟发布时间,我们也认为是可以接受的。

我们知道无法预见每一种可能的未来场景。因此,我们需要非常紧密的反馈循环,严格的测试,每一步的仔细考虑,世界级的安全性,以及安全与能力的和谐统一。我们将继续进行针对不同时间尺度的安全研究。我们也继续与政府和许多利益相关者在安全问题上进行合作。

没有现成的手册来指导 AGI 的发展道路。我们认为经验理解可以帮助指引前进的方向。我们既相信要实现巨大的潜在收益,又要努力减轻严重的风险;我们非常认真地对待我们的角色,并慎重地权衡对我们行动的反馈。

— Sam 和 Greg

相关资讯

OpenAI解散Ilya重要团队,前高管怒斥,宫斗第二季

奥特曼的激进策略,现在不受控制了?没有想到,OpenAI 在本周发布 GPT-4o,技术再次大幅度领先之后,随之迎来的却是一系列坏消息。本周,OpenAI 联合创始人、首席科学家 Ilya Sutskever 官宣离职,与 Ilya 同步宣布离开的,还有超级对齐团队的共同领导者 Jan Leike。                              山姆・奥特曼、 Ilya Sutskever 和 Jan Leike。Ilya 与 Jan 是 OpenAI 超级对齐团队的领导者,该团队的任务是确保人工智能与

OpenAI发布新安全框架,董事会有权否决CEO发布新模型

机器之能报道编辑:吴昕人类正在进入生成式 AI 新时代。而 OpenAI 在引导新技术朝着符合人类价值观和安全标准的方向所做的努力,也被视为行业的路标。还记得 Sam Altman 回归 OpenAI 时提到的「三个当务之急」吗?首当其冲的就是险些将他踢出公司的安全问题。现在,OpenAI  正力图系统化他们的安全思维。「我们的准备团队正在开展开创性工作,将安全发展成为一门定量科学。」 OpenAI 总裁 Greg Brockman 在社交平台上表示。本周一,公司在其网站上公布的一项计划,制定了一个框架来解决其最先

OpenAI 回应员工担忧:支持监管,必要保障措施到位前不发 AI 新技术

OpenAI 和谷歌 DeepMind 员工联名发声,担忧高级 AI 风险巨大,亟需加强监管,对此 OpenAI 今天发布声明,强调该致力于提供功能强大且安全的人工智能系统。IT之家翻译 OpenAI 公司官方声明内容如下:我们为自己能提供能力最强、最安全的人工智能系统而感到自豪,并坚信我们能以科学的方法应对风险。鉴于 AI 技术的重要性,我们认同公开信中的内容,如何通过严肃的讨论,对于更好推进 AI 技术发展至关重要。我们将继续接触各国政府、民间社会和世界各地的其他社区,共同营造和谐的 AI 环境。包括匿名诚信热