OpenAI CEO下场回应「封口协议」,争议还是到了股权利益上,奥特曼:我的锅

自从 Ilya 和 超级对齐负责人 Jan 离职后,OpenAI 内部还是心散了,后续也有越来越多的人离职,同时也引发了更多的矛盾。昨天,争议的焦点来到了一份严格的「封口协议」。OpenAI 前员工 Kelsey Piper 爆料,任何员工的入职文件说明中都包含一项:「在离开公司的六十天内,你必须签署一份包含『一般豁免』的离职文件。如果你没有在 60 天内完成,你的股权获益将被取消。」这份引发风浪的文件截图,让 OpenAI CEO 迅速下场回应:「我们从未收回任何人的既得权益,如果人们不签署分离协议(或不同意不贬

自从 Ilya 和 超级对齐负责人 Jan 离职后,OpenAI 内部还是心散了,后续也有越来越多的人离职,同时也引发了更多的矛盾。

昨天,争议的焦点来到了一份严格的「封口协议」。

OpenAI 前员工 Kelsey Piper 爆料,任何员工的入职文件说明中都包含一项:「在离开公司的六十天内,你必须签署一份包含『一般豁免』的离职文件。如果你没有在 60 天内完成,你的股权获益将被取消。」

图片

这份引发风浪的文件截图,让 OpenAI CEO 迅速下场回应:

「我们从未收回任何人的既得权益,如果人们不签署分离协议(或不同意不贬损协议),我们也不会这样做。既得股权就是既得股权(句号)。」

关于 OpenAI 如何处理股权,山姆・奥特曼的其他回应如下:

图片

仅仅 15 分钟后,爆料者再次质疑并大胆提问:既然你已经知道了,那么,此前员工的限制协议会取消吗?

图片

图片

因为大部分人,想要的是一个明确的解决方案,而不只是歉意:

图片

图片

爆料者 Kelsey Piper 同时表示:「至于我这样做是否对 Sam 不公平 —— 我的意思是,我认为这是 CEO 的职责之一。有时你不仅需要道歉,而且人们还会吹毛求疵,想要澄清,想要看到政策已经改变的证据。」

去年有报道称,OpenAI 员工薪酬中最常见的一种组合是:30 万美元的固定基本工资,以及每年约 50 万美元的 PPU(利润参与单位)补助金,这是一种股权补偿形式。也就是说,在 PPU 赠款的四年期中,大多数 OpenAI 员工预计至少获得 200 万美元的股权薪酬。

如果消息为真,大部分「被离职」的前员工应该都想「坚持到底」。

在这场风波之外,还有一条争议同时进行:有关 OpenAI 将如何处理安全和未来风险。

据多家媒体报道,随着最近 Ilya Sutskever、Jan Leike 两位超级对齐团队的共同领导者离职,OpenAI 的超级对齐团队已被解散。周五,Jan Leike 还发布了一系列帖子,怒斥 OpenAI 及其领导层忽视「安全」而偏爱「光鲜亮丽的产品」。

今天早些时候,OpenAI 联合创始人 Greg Brockman 对该问题进行了长文回应。

图片

在这篇落款为「Sam and Greg」的文章中,Brockman 指出:OpenAI 已采取措施确保 AI 技术的安全开发和部署。 

我们非常感谢 Jan 为 OpenAI 所做的一切,我们知道他将继续从外部为 OpenAI 的使命做出贡献。鉴于他的离开所引发的问题,我们想解释一下我们是如何考虑整体战略的。

首先,我们已经提高了人们对 AGI 风险和机遇的认识,以便世界能够更好地为其做好准备。我们多次展示了扩展深度学习的惊人可能性,并分析了其影响;在此类呼吁流行之前,我们就呼吁对 AGI 进行国际治理,并

其次,我们一直在为安全部署能力越来越强的系统奠定必要的基础。首次使用一项新技术并不容易。例如,我们的团队做了大量工作,以安全的方式将 GPT-4 推向世界,此后,我们根据部署过程中的经验教训,不断改进模型行为和滥用监控。

第三,未来将比过去更加艰难。我们需要不断提升我们的安全工作,以应对每一个新模型的风险。去年,我们采用了「Preparedness Framework」,以帮助将我们的工作系统化。

现在是谈论我们如何看待未来的好时机。

随着模型的功能不断增强,我们预计它们将开始与世界进行更深入的整合。用户将越来越多地与由许多多模态模型和工具组成的系统进行交互,这些系统可以代表他们采取行动,而不是与一个只有文本输入和输出的单一模型对话。

我们认为,这些系统将给人们带来极大的好处和帮助,而且有可能安全地提供这些系统,但这需要大量的基础工作。这包括围绕它们在训练过程中与什么联系在一起的深思熟虑,解决困难问题(如可扩展的监督)的方案,以及其他新型安全工作。在朝着这个方向发展的过程中,我们还不确定何时才能达到发布的安全标准,如果这将推迟发布时间,也没关系。

我们知道,我们无法想象未来所有可能发生的情况。因此,我们需要一个非常严密的反馈回路、严格的测试、每一步的慎重考虑、世界一流的安全性,以及安全与功能的和谐统一。我们将继续针对不同的时间尺度开展安全研究。我们还将继续与各国政府和许多利益相关方就安全问题开展合作。

在通往人工智能的道路上,没有行之有效的指南。我们认为,经验性的理解可以帮助我们指明前进的道路。我们相信,既要实现巨大的发展前景,也要努力降低严重的风险;我们非常认真地对待我们在这方面的角色,并仔细权衡对我们行动的反馈意见。

— Sam and Greg

但效果似乎不尽如人意,甚至受到了嘲讽:

图片

图片

AI 领域的活跃学者 Gary Marcus 也说:透明度胜于雄辩。

图片

看起来,Greg Brockman 并不打算对政策或承诺方面做出更具体的回应了。

在 Jan Leike 和 Ilya Sutskever 离开后,另一位 OpenAI 联合创始人 John Schulman 已转而负责超级对齐团队正在做的工作,只是不再有一个专门的部门,而是一个松散关联的团队。嵌入公司各个部门的研究人员小组。OpenAI 将其描述为「更深入地整合(团队)」。

争议背后的真相是什么呢?也许 Ilya Sutskever 最清楚,但他选择了体面离场,今后可能也不会再谈起这件事。毕竟,他已经有了「一个对个人而言非常有意义的项目」。

相关资讯

o1 研发团队完整采访:Ilya早期曾参与,灵感源于AlphaGo

自从 OpenAI 的 o1 问世以来,它强大的推理能力就承包了 AI 圈近期的热搜。不需要专门训练,它就能直接拿下数学奥赛金牌,甚至可以在博士级别的科学问答环节上超越人类专家。展示 o1 实力的 demo,我们看了不少,评估 o1 表现的评测,全网比比皆是,关于 o1 技术路线的讨论也如火如荼,引发了广泛的关注和深入的思考。不过 o1 背后的故事,还鲜为人知,那些在幕后默默付出的团队成员们,他们的故事同样值得被讲述和铭记。刚刚,OpenAI 发布了 o1 研发团队的完整访谈,为我们揭秘了 o1 的「成长历程」。o

LeCun批评o1根本不像研究,Noam Brown回怼:已发表的研究都是废话

图灵奖三巨头之一 Yann LeCun 又和别人吵起来了,这次是 Noam Brown。Noam Brown 为 OpenAI o1 模型的核心贡献者之一,此前他是 Meta FAIR 的一员,主导了曾火遍一时的 CICERO 项目,在 2023 年 6 月加入 OpenAI  。这次吵架的内容就是围绕 o1 展开的。众所周知,从 AI 步入新的阶段以来,OpenAI 一直选择了闭源,o1 的发布也不例外。这也引来了广大网友的吐槽,干脆叫 CloseAI 算了,反观 Meta,在开源领域就做的很好,o1 的发布,更

OpenAI o1 推理模型 API 上线,仅面向特定开发者开放

“OpenAI 12 天”活动进入第 9 天,OpenAI 今日宣布,其“推理”人工智能模型 o1 正式通过 API 向部分开发者开放,并同步更新了包括 GPT-4o、实时 API 以及微调 API 等多项开发者工具。