前员工爆料,OpenAI AGI 安全团队已流失近半成员

OpenAI 一直致力于开发能够造福全人类的人工智能技术,然而最近的一份报告揭示了一个令人担忧的现象:近一半曾专注于超级智能 AI 长期风险的研究人员已经离开了这家公司。图源 Pexels据 Fortune 报道,OpenAI 前治理研究员 Daniel Kokotajlo 表示,在过去几个月里,OpenAI 几乎一半的 AGI 安全团队成员已经离职。这引发了外界对公司是否正在忽视 AI 安全性的担忧。AGI 安全研究人员主要负责确保未来开发的 AGI 系统不会对人类构成生存威胁。然而,随着 OpenAI 越来越专

OpenAI 一直致力于开发能够造福全人类的人工智能技术,然而最近的一份报告揭示了一个令人担忧的现象:近一半曾专注于超级智能 AI 长期风险的研究人员已经离开了这家公司。

前员工爆料,OpenAI AGI 安全团队已流失近半成员

图源 Pexels

据 Fortune 报道,OpenAI 前治理研究员 Daniel Kokotajlo 表示,在过去几个月里,OpenAI 几乎一半的 AGI 安全团队成员已经离职。这引发了外界对公司是否正在忽视 AI 安全性的担忧。

AGI 安全研究人员主要负责确保未来开发的 AGI 系统不会对人类构成生存威胁。然而,随着 OpenAI 越来越专注于产品和商业化,研究人员的离职意味着公司的安全研究团队正在逐渐缩减。

Kokotajlo 指出,自 2024 年以来,OpenAI 的 AGI 安全团队已经从约 30 人减少到 16 人左右。他认为,这并不是一个有组织的行动,而是个人逐渐失去信心而离职。

OpenAI 发言人对此表示,公司为能够提供最有能力、最安全的人工智能系统感到自豪,并相信自己具有解决风险的科学方法。

AI在线注意到,今年早些时候,OpenAI 联合创始人、首席科学家 Ilya Sutskever 宣布辞去 OpenAI 职务,其领导的负责安全问题的“超级对齐”团队也遭到解散。

相关资讯

OpenAI 又一吹哨人离职!拉响安全警报,风险隐患实在太大

OpenAI 离职潮中,又一研究员官宣离职,并且还发出了“警告”信息:Ilya 和 Jan Leike 的担忧正是我的担忧,还有一些额外的问题。我们需要做更多事来改进决策流程等基础性的事务,包括问责制、透明度、文档、策略执行、如何谨慎使用技术,以及减轻不平等、权利和环境影响的措施。主人公名叫 Gretchen Krueger(简称格姐),是 OpenAI 的 AI 策略研究员。她在 2019 年加入 OpenAI,参与过 GPT-4 和 DALL・E 2 的开发工作,还在 2020 年领导了 OpenAI 第一个全

OpenAI发布新安全框架,董事会有权否决CEO发布新模型

机器之能报道编辑:吴昕人类正在进入生成式 AI 新时代。而 OpenAI 在引导新技术朝着符合人类价值观和安全标准的方向所做的努力,也被视为行业的路标。还记得 Sam Altman 回归 OpenAI 时提到的「三个当务之急」吗?首当其冲的就是险些将他踢出公司的安全问题。现在,OpenAI  正力图系统化他们的安全思维。「我们的准备团队正在开展开创性工作,将安全发展成为一门定量科学。」 OpenAI 总裁 Greg Brockman 在社交平台上表示。本周一,公司在其网站上公布的一项计划,制定了一个框架来解决其最先

OpenAI 泄密者,投奔马斯克

刚被 OpenAI 开除的泄密者,光速投奔马斯克。当事人 Pavel Izmailov(以下简称小 P),正是 Ilya 盟友之一,在 Ilya 领导的超级对齐团队干过。半个月前,小 P 被指疑似泄露 Q * 相关机密而被开除。虽然不清楚他泄密了个啥,但当时闹得沸沸扬扬。说时迟那时快,现在,他的推特个人简介上,已经大张旗鼓写着:研究员 @xai要不说老马招人下手快呢,除了小 P,不少优秀人才近期都被马斯克揽入麾下。看热闹的网友炸开了锅。夸他的人不少,称他干得漂亮:也有人嫌弃死了,觉得雇佣泄露机密信息的人,这行为无异