感谢继 OpenAI 共同创始人 Ilya Sutskever 到职之后,另一名 OpenAI 高管 Jan Leike 在 X 平台宣布贴文,宣布他曾经在上周离开公司。
据悉,Jan Leike 是 OpenAI 旗下 Superalignment(超等对齐)团队的共同主管,他表示最近几年 OpenAI 曾经不惜内部文化,无视宁静准则,执意高速推出“吸引眼球”的产品。
IT之家经查询得知,OpenAI 在 2023 年 7 月设立 Superalignment 团队,任务是“确保那些具备‘超等智能’、‘比人类还聪明’的 AI 零碎能够遵循人类的意图”。当时 OpenAI 承诺在现在的 4 年内投入 20% 的计算能力来保证 AI 模型的宁静性,而根据彭博社报道,OpenAI 目前据称曾经解散了 Superalignment 团队。
Leike 表示,他加入 OpenAI 的原因是“他觉得 OpenAI 是全国上最适合举行 AI 宁静研究的场所”。然而目前 OpenAI 领导层曾经高度无视了模型的宁静性,将核心优先事项放在盈利与获取计算资源上。
截至发稿,OpenAI 的 Greg Brockman 和 Sam Altman 曾经联名对 Leike 的看法作出回应,表示他们“曾经提高了对于 AI 危害的认知,现在还会不停晋升宁静处事以应答每款新模型的利害关系”,IT之家翻译如下:
我们极度感谢 Jan 为 OpenAI 所做的一切,我们知道他将连续在外部为我们的使命做出贡献。鉴于他到职引起的一些问题,我们想解释一下我们对整体战略的思考。
首先,我们曾经提高了对 AGI 危害和机遇的认识,以便全国更好地为其做好准备。我们反复展示了深度学习扩大带来的巨大可能性并分析其影响;在国际上号令对 AGI 举行治理(在这种号令变得流行之前);并且在评估 AI 零碎的灾难性危害的科学领域举行了开创性的处事。
其次,我们正在为越来越强大的零碎的宁静布局奠定基础。首次让新技术宁静化并不容易。例如,我们的团队做了大量处事以宁静地将 GPT-4 带给全国,并且自那以后,持续改进模型行为和滥用监测,以应答从布局中学到的经验教训。
第三,现在会比过去更难。我们需求不停晋升我们的宁静处事,以匹配每个新模型的危害。去年,我们采用了准备框架来零碎化我们的处事方法。
现在是谈谈我们如何看待现在的好时机。
随着模型能力的不停晋升,我们预计它们将更深入地与全国整合。用户将越来越多地与由多个多模态模型和工具组成的零碎互动,这些零碎可以代表用户采取行动,而不仅仅是通过文本输入和输出与单一模型对话。
我们觉得这些零碎将极度有益并对人们有帮助,并且可以宁静地交付,但这需求大量的基础处事。这包括在训练过程中对其连接内容的深思熟虑,解决诸如可扩大监督等难题,以及其他新型宁静处事。在这个方向上构建时,我们尚不确定何时能达到宣布的宁静标准,如果这会推迟宣布时间,我们也觉得是可以接受的。
我们知道无法预见每一种可能的现在场景。因此,我们需求极度紧密的反应循环,严格的测试,每一步的仔细考虑,全国级的宁静性,以及宁静与能力的和谐统一。我们将连续举行针对不同时间尺度的宁静研究。我们也连续与政府和许多利益相关者在宁静问题上举行合作。
没有现成的手册来指导 AGI 的发展道路。我们觉得经验理解可以帮助指引前进的方向。我们既相信要实现巨大的潜在收益,又要努力减轻严重的危害;我们极度认真地对待我们的角色,并慎重地权衡对我们行动的反应。
— Sam 和 Greg