DeepSeek 威胁下,OpenAI 称考虑开源旧 AI 模型

OpenAI CEO 山姆・阿尔特曼在当地时间上周五(1 月 31 日)举行的 Reddit“Ask Me Anything”活动中表示, OpenAI 需要“弄清楚另一种开源战略”。
感谢在 DeepSeek 发布较低成本的开源 AI 模型后,OpenAI 表示正在考虑“不同的开源战略”。

据外媒 Seeking Alpha 报道,OpenAI CEO 山姆・阿尔特曼在当地时间上周五(1 月 31 日)举行的 Reddit“Ask Me Anything”活动中表示, OpenAI 需要“弄清楚另一种开源战略”。

他补充说,并非所有人都有这种观点,并且弄清楚该策略不是“我们当前的最高优先事项”。

OpenAI 首席产品官 Kevin Weil 在同一活动中表示,该公司正在考虑开源较旧的 AI 模型

AI在线注:尽管学者和研究人员更喜欢开放源代码,但企业更喜欢封闭的模型,因为可以保护其商业秘密。PYMNTS 报道称, DeepSeek 最近推出的开源模型可能会威胁企业 AI。

据彭博社报道,阿尔特曼将在接下来的几周里,频繁往返东京、新德里、迪拜和德国,因为人工智能领域的竞争愈加激烈,他将与投资者、开发者和行业领袖交流

相关资讯

OpenAI首席研究官:DeepSeek独立发现了o1的一些核心思路,奥特曼、LeCun纷纷置评

成本打下来了,需求更多才对? 春节这几天,国内外 AI 圈都被 DeepSeek 刷了屏。 英伟达的股市震荡更是让全世界看得目瞪口呆(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。

自有歪果仁为DeepSeek「辩经」:揭穿围绕DeepSeek的谣言

围绕 DeepSeek 的谣言实在太多了。 面对 DeepSeek R1 这个似乎「一夜之间」出现的先进大模型,全世界已经陷入了没日没夜的大讨论。 从它的模型能力是否真的先进,到是不是真的只用了 550W 进行训练,再到神秘的研究团队,每个角度都是话题。

一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo

开源大模型领域,又迎来一位强有力的竞争者。近日,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了一款强大的混合专家 (MoE) 语言模型 DeepSeek-V2,主打训练成本更低、推理更加高效。项目地址::DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language ModelDeepSeek-V2 参数量达 236B,其中每个 token 激活 21B 参数,支持 128K token 的上下文长度。与