AI在线 AI在线

数月 → 几天:OpenAI 被曝缩水模型安全测试,AI 竞赛埋下隐患

作者:故渊
2025-04-12 12:44
金融时报(FT)昨日(4 月 11 日)发布博文,报道称 OpenAI 大幅压缩最新大型语言模型(LLM)安全测试时间,此前需要数月时间,而最新 o3 模型仅有几天时间。

金融时报(FT)昨日(4 月 11 日)发布博文,报道称 OpenAI 大幅压缩最新大型语言模型(LLM)安全测试时间,此前需要数月时间,而最新 o3 模型仅有几天时间。

竞争驱动,安全让步

据八位知情人士透露,OpenAI 大幅压缩模型的安全测试时间,留给员工和第三方测试团队“评估”(evaluations,即测试模型风险和性能)时间仅有数天时间,而此前通常会耗时数月时间。

AI在线援引博文介绍,OpenAI 面临来自 Meta、Google 及 xAI 等对手的激烈竞争,需快速推出新模型以维持市场优势。o3 模型计划最早下周发布,留给测试者安全检查时间不到一周,而此前 GPT-4 的测试期长达六个月。

一位测试过 GPT-4 的人士透露,过去安全测试更彻底,某些危险能力在测试两个月后才被发现,而如今竞争压力迫使公司追求速度,忽视潜在风险。

测试不足,监管缺位

全球目前尚未统一 AI 安全测试标准,但欧盟《AI 法案》将于今年晚些时候上线,要求企业对其最强大的模型进行安全测试。

AI Futures Project 负责人 Daniel Kokotajlo 表示,由于缺乏强制监管,企业不会主动披露模型的危险能力,竞争压力进一步加剧了风险。

OpenAI 曾承诺构建定制模型版本,测试其潜在滥用风险,例如是否能协助制造更具传染性的生物病毒。

这种测试需投入大量资源,包括聘请外部专家、创建特定数据集并进行“微调”(fine-tuning)。但 OpenAI 仅对较老旧的模型进行有限微调,最新模型如 o1 和 o3-mini 未全面测试。前 OpenAI 安全研究员 Steven Adler 批评,若不兑现测试承诺,公众有权知情。

数月 → 几天:OpenAI 被曝缩水模型安全测试,AI 竞赛埋下隐患

安全测试未覆盖最终模型

另一问题在于,安全测试通常基于早期“检查点”(checkpoints),而非最终发布模型。一位前 OpenAI 技术人员表示,发布未经测试的更新模型是“不良做法”,而 OpenAI 辩称,其检查点与最终模型“基本一致”,并通过自动化测试提高效率,确保安全。

相关标签:

相关资讯

OpenAI o3 模型运行成本估算大幅上调:单次任务从 3000 美元涨至 3 万美元

Arc Prize Foundation 大幅上调 OpenAI o3 模型运行成本估算,从 3000 美元涨至 3 万美元。高昂成本凸显 AI 模型特定任务的高成本难题,控制成本成行业挑战。##AI模型成本##
4/3/2025 7:59:45 AM
远洋

o1 研发团队完整采访:Ilya早期曾参与,灵感源于AlphaGo

自从 OpenAI 的 o1 问世以来,它强大的推理能力就承包了 AI 圈近期的热搜。不需要专门训练,它就能直接拿下数学奥赛金牌,甚至可以在博士级别的科学问答环节上超越人类专家。展示 o1 实力的 demo,我们看了不少,评估 o1 表现的评测,全网比比皆是,关于 o1 技术路线的讨论也如火如荼,引发了广泛的关注和深入的思考。不过 o1 背后的故事,还鲜为人知,那些在幕后默默付出的团队成员们,他们的故事同样值得被讲述和铭记。刚刚,OpenAI 发布了 o1 研发团队的完整访谈,为我们揭秘了 o1 的「成长历程」。o
9/22/2024 1:27:00 PM
机器之心

LeCun批评o1根本不像研究,Noam Brown回怼:已发表的研究都是废话

图灵奖三巨头之一 Yann LeCun 又和别人吵起来了,这次是 Noam Brown。Noam Brown 为 OpenAI o1 模型的核心贡献者之一,此前他是 Meta FAIR 的一员,主导了曾火遍一时的 CICERO 项目,在 2023 年 6 月加入 OpenAI  。这次吵架的内容就是围绕 o1 展开的。众所周知,从 AI 步入新的阶段以来,OpenAI 一直选择了闭源,o1 的发布也不例外。这也引来了广大网友的吐槽,干脆叫 CloseAI 算了,反观 Meta,在开源领域就做的很好,o1 的发布,更
9/30/2024 2:12:00 PM
机器之心