前 OpenAI 政策负责人质疑公司 AI 安全叙事的变更

最近,前 OpenAI 政策研究负责人迈尔斯・布伦达奇(Miles Brundage)对公司在人工智能安全方面的叙事变更提出了批评,认为 OpenAI 正在重新编写其 AI 系统安全的历史。 他表示,OpenAI 在追求通用人工智能(AGI)的过程中,可能会忽视长远的安全措施。 OpenAI 一直以来致力于推动其雄心勃勃的愿景,尤其是在 DeepSeek 等竞争对手日益崛起的背景下。

最近,前 OpenAI 政策研究负责人迈尔斯・布伦达奇(Miles Brundage)对公司在人工智能安全方面的叙事变更提出了批评,认为 OpenAI 正在重新编写其 AI 系统安全的历史。他表示,OpenAI 在追求通用人工智能(AGI)的过程中,可能会忽视长远的安全措施。

OpenAI,人工智能,AI

OpenAI 一直以来致力于推动其雄心勃勃的愿景,尤其是在 DeepSeek 等竞争对手日益崛起的背景下。公司在追求 AGI 发展的过程中,频繁强调超级人工智能代理的潜力,然而,这种态度并未获得广泛的认可。布伦达奇认为,OpenAI 在与其现有的 AI 模型的部署和安全性方面的叙述上存在不一致之处。

最近,OpenAI 发布了一份关于其 AI 模型逐步部署的文档,旨在展示其谨慎的做法。文档中以 GPT-2为例,强调了在处理当前系统时应保持高度谨慎的态度。OpenAI 在文档中提到:“在一个不连续的世界里,安全教训来自于对今天系统的高度谨慎,这正是我们在 GPT-2模型上采取的方法。”

然而,布伦达奇对此提出质疑。他认为,GPT-2的发布也遵循了渐进的方法,安全专家曾对 OpenAI 的谨慎处理表示赞赏。他认为,过去的谨慎并非过度,而是必要和负责任的做法。

此外,布伦达奇还对 OpenAI 声称 AGI 将通过渐进步骤而非突然突破的观点表示担忧。他认为,OpenAI 对 GPT-2发布历史的误解,以及对安全历史的重新叙述,令人感到不安。他还指出,OpenAI 发布的文档可能会在某种程度上导致安全顾虑被视为过度反应,这在 AI 系统不断发展的背景下,可能带来重大风险。

这并非 OpenAI 首次受到批评,专家们质疑公司是否在长期安全与短期利益之间做出了合理的权衡。布伦达奇的担忧再次引发了人们对 AI 安全的重视。

划重点:

🌐 OpenAI 前政策负责人质疑公司对 AI 安全叙事的变化,认为这是对历史的误解。  

🚀 OpenAI 发布的文档强调了谨慎发布 AI 模型的重要性,但遭到了前员工的批评。  

⚠️ 未来 AI 系统的发展必须重视安全措施,专家对此表示担忧。

相关资讯

微软 AI 掌门人苏莱曼不看好 OpenAI 阿尔特曼对 AGI 的预判:当前硬件无法实现

据 The Verge 今晚报道,微软 AI CEO 穆斯塔法・苏莱曼对 OpenAI CEO 山姆・阿尔特曼的最新表态提出了异议,称当前硬件无法实现 AGI。

改进云基础设施以实现通用人工智能AGI​

人工通用智能(AGI)是人工智能领域最具雄心的目标。 AGI旨在模拟类似人类的认知能力,包括在不同领域的推理、理解和学习。 当前的云基础设施尚不足以支持AGI系统所需的计算和学习需求。

MBZUAI校长邢波亲笔撰文:人工智能的「文艺复兴」已经到来

机器之能报道作者:邢波关于 AI 风险的问题,各路大佬也是意见不统一,前阵子大家还在社交媒体上爆发了一场大规模论战。 有的人带头签署联名信,呼吁 AI 实验室应立即暂停研究并呼吁政府加强监管。也有不少人对 AI 发展非常积极乐观,认为 AI 的发展远未构成对人类的威胁,监管只会蜕变为少数巨头利益的保护伞。 英国政府针对 AI 技术前后态度的变化,正是「威胁论」尘嚣甚上的例证。三月份,英国政府曾发布白皮书,承诺不会扼杀 AI 创新。仅仅两个月后,「AI 末日论」 弥漫,政府也开始讨论为 AI 设置护栏,并敦促美国政府