OpenAI 紧急发布 o3-mini,CEO 阿尔特曼罕见认错并称 DeepSeek“非常好”

阿尔特曼罕见地承认了自己的错误,并表示 OpenAI 正在讨论一个新的开源策略。“我个人认为,在这个问题上我们站错了队,需要想出一个不同的开源策略;不是 OpenAI 的每个人都持有这种观点,而且这也不是我们目前的最高优先级。”阿尔特曼表示。(新浪科技)
感谢AI在线网友 繁星一粟、Autumn_Dream 的线索投递!

2 月 1 日上午消息,OpenAI 今日发布 o3-mini 模型,这是 OpenAI 推理系列中最新、最具成本效益的模型,已在 ChatGPT 和 API 中开放使用。据悉,该模型在数学代码等基准测试中刷新 SOTA,相关测试中 o3-mini(high)在准确率和校准误差(Calibration Error)均是最优。

据介绍,o3-mini 的价格比 OpenAI o1-mini 便宜 63%,比满血版 o1 便宜 93%。开发者可根据需求选择高、中、低三种推理强度,让 o3-mini 在处理复杂问题时进行深度思考,平衡速度和准确性。

在外界看来,这是 OpenAI 对过去一周 DeepSeek 风靡全球的回应。OpenAI 联合创始人、首席执行官萨姆・阿尔特曼在 o3-mini 发布后的在线问答中透露,“在未来几周,满血版 o3 即将上线。

萨姆・阿尔特曼还谈及了对于 DeepSeek 的看法。他表示,“它(DeepSeek)确实是一个非常好的模型,OpenAI 会开发出更好的模型,但我们不会像往年那样保持那么大的领先优势了。”

阿尔特曼罕见地承认了自己的错误,并表示 OpenAI 正在讨论一个新的开源策略。“我个人认为,在这个问题上我们站错了队,需要想出一个不同的开源策略;不是 OpenAI 的每个人都持有这种观点,而且这也不是我们目前的最高优先级。”阿尔特曼表示。

阿尔特曼还透露,OpenAI 的高级语音模型的更新即将到来,这可能会被命名为 GPT-5,而不是 GPT-5o,但目前还没有具体的时间表。

OpenAI 紧急发布 o3-mini,CEO 阿尔特曼罕见认错并称 DeepSeek“非常好”

OpenAI 紧急发布 o3-mini,CEO 阿尔特曼罕见认错并称 DeepSeek“非常好”

相关资讯

OpenAI首席研究官:DeepSeek独立发现了o1的一些核心思路,奥特曼、LeCun纷纷置评

成本打下来了,需求更多才对? 春节这几天,国内外 AI 圈都被 DeepSeek 刷了屏。 英伟达的股市震荡更是让全世界看得目瞪口呆(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。

自有歪果仁为DeepSeek「辩经」:揭穿围绕DeepSeek的谣言

围绕 DeepSeek 的谣言实在太多了。 面对 DeepSeek R1 这个似乎「一夜之间」出现的先进大模型,全世界已经陷入了没日没夜的大讨论。 从它的模型能力是否真的先进,到是不是真的只用了 550W 进行训练,再到神秘的研究团队,每个角度都是话题。

一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo

开源大模型领域,又迎来一位强有力的竞争者。近日,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了一款强大的混合专家 (MoE) 语言模型 DeepSeek-V2,主打训练成本更低、推理更加高效。项目地址::DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language ModelDeepSeek-V2 参数量达 236B,其中每个 token 激活 21B 参数,支持 128K token 的上下文长度。与