中国AI太强,Meta工程师吓疯?自曝疯狂熬夜复制DeepSeek,天价高管心虚了

今天,Meta员工在匿名社区TeamBlind上的一个帖子,在业内被传疯了。 DeepSeek,真实地给了美国人亿点点「震撼」。 DeepSeek R1是世界上首个与OpenAI o1比肩的AI模型,而且与o1不同, R1还是开源模型「Open Source Model」,比OpenAI还Open!更有人曝料,DeepSeek还只是个「副项目」,主业根本不是搞大模型!

今天,Meta员工在匿名社区TeamBlind上的一个帖子,在业内被传疯了。

图片

DeepSeek,真实地给了美国人亿点点「震撼」。

DeepSeek R1是世界上首个与OpenAI o1比肩的AI模型,而且与o1不同, R1还是开源模型「Open Source Model」,比OpenAI还Open!

更有人曝料,DeepSeek还只是个「副项目」,主业根本不是搞大模型!

图片

这不,OpenAI还没慌呢,Meta先慌了!

毕竟Meta一直自诩开源先锋,但DeepSeek这种程度的开源,直接把它们拍在沙滩上。

更可怕的是,DeepSeek的成本也太太太低了,这么比起来,Meta拿着超高预算的团队,就显得很尴尬。

那些一个人拿的薪资,就超过整个DeepSeek V3训练成本(仅550万美元)的高管,尤其如坐针毡。

根据内部Meta内部人士爆料,DeepSeek去年的V3,已经给他们压力了。

现在,Meta的工程师正在抓紧一切时间,争分夺秒地分析DeepSeek,试图复制其中一切可能的技术。

以前,是全世界追着美国的大模型拿着放大镜研究,现在情况竟倒转了过来,美国人也开始逆向工程了。今夕是何夕?

中国大模型的狂飙猛进,真的让我们感到了魔幻现实主义的味道。

Meta工程师吓疯了

TeamBlind上的帖子,全文曝料如下:

一切源于DeepSeek V3的出现,它在基准测试中已经让Llama 4相形见绌。更让人难堪的是,一家「仅用550万美元训练预算的中国公司」就做到了这一点。

工程师们正在争分夺秒地分析DeepSeek,试图复制其中的一切可能技术。这绝非夸张。

管理层正为如何证明GenAI研发部门的巨额投入而发愁。当部门里一个高管的薪资就超过训练整个DeepSeek V3的成本,而且这样的高管还有数十位,他们该如何向高层交代?

DeepSeek R1的出现让情况更加严峻。具体细节属于机密,不便透露,不过很快就会公开了。

这本该是一个以工程为导向的精简部门,但因为太多人想要分一杯羹,人为膨胀招聘规模,最终导致人人都付出了代价。

在成本上,「一个高管 = DeepSeek V3」,这对给高管们开出天价年薪的硅谷大厂们,实在是啪啪打脸。

图片

更是有网友被震惊到:「DeepSeek R1在OpenAI、Meta、Grok以及谷歌的屁股下点了一把火,就像Open AI在第一次推出ChatGPT时那样震撼。如果去掉人力瓶颈,达到o1级性能真的不需要花太多钱!!」

图片

有网友认为,在这次AI浪潮中,Meta的确落后了。

图片

但也有网友为Meta解释,毕竟Meta已经开始行动了,虽然在GenAI领域的确「人浮于事」。

图片

甚至,这个来自中国的AI已经上了美国的新闻。措辞非常夸张——

「中国初创企业DeepSeek,威胁了美国AI的主导地位。」

「否认、愤怒、绝望、接受,美国人正在进行艰难的心理重建。这是他们历史上从未见过的最强对手。」

图片

不到600万美元的成本,就能训出一个如此强的模型,这简直是彻底扯掉了美国金融业的遮羞布。

AI产业,真的需要动辄数万亿美元的投资么?

连带着,特朗普和奥特曼搞的5000亿美元星际之门,也一下子变得可疑了起来。

图片

DeepSeek-R1有多强?

「花小钱办大事」,可见DeepSeek团队的确有「独门秘籍」,在技术上恐怕也超越了OpenAI。

DeepSeek还发表了相关论文,介绍了DeepSeek-R1的大规模强化学习(RL)训练、未经过监督微调(SFT)作为预处理步骤等技术细节。

图片论文链接:https://arxiV.org/pdf/2501.12948

这种「技术自信」,让部分美国网友都开始了「反思」。

图片

为何AI圈,如此惧怕DeepSeek?

来自VB最新一篇独家文章,特意将AI界黑马DeepSeek引发AI界轰动做了全面分析。

图片

就在几天前,只有最专业的极客们才听说过DeepSeek。

它是一家成立于2015年幻方量化公司,背后投资者High-Flyer Capital Management。

直到过去几天,这家公司迅速成为硅谷最受关注的颠覆者,这主要归功于DeepSeek R1的诞生。

不用SFT,仅凭强化学习就让模型推理性能堪比o1,而且在多项基准测试中,R1甚至超越了o1。

令人瞠目结舌的是,如此强大得模型,训练成本仅500万美金,使用的GPU数量也远远低于OpenAI。

不仅如此,他们直接将其开源,Hugging Face下载量和活跃度直接爆表。

而且,开发者可以自由微调训练,API成本要比同等o1模型低90%还要多。

与OpenAI仅低性能模型上提供网页搜索不同,DeepSeek直接将R1与搜索功能深度整合。

在一步一步策略中,这家中国公司完胜了OpenAI。

第一个,但不是最后一个

这也不会是最后一个,挑战硅谷巨头主导地位的中国AI模型。

最近,字节全新发布了「豆包1.5 Pro」,在第三方基准测试中,其性能与GPT-4o模型相当,但成本仅为后者的1/50。

中国模型的快速迭代,已经引起国际关注:

《经济学人》杂志刚刚发表了一篇关于DeepSeek成功以及其他中国企业的成功。

图片

政治评论员Matt Bruenig的实际体验,也更加印证了中国AI模型的实力。

图片

最后一句话总结:中国AI崛起了,美国还得适应。

相关资讯

追平满血版o1的国产多模态模型终于来了!训练细节全部公开

春节前最后一周,能媲美 Open AI 满血版 o1(Full Version,而非 preview)的模型终于出现了! 刚刚,月之暗面公布了他们的 Kimi k 系列模型最新版本 ——k1.5 多模态思考模型。 新模型在数学、代码、多模态推理能力等方面全面对标 Open AI 满血版 o1,而且是 OpenAI 之外首个多模态 o1。

Anthropic CEO惊人预警:27年AI超越人类!Claude今年更新全剧透

失踪人口终于回归了! 在互联网消失一段时间后,Anthropic首席执行官Dario Amodei一上来就接受了WSJ、CNBC两家采访,连曝AI大瓜。 他坚定地认为,「2027年之前,AI完全可以超越人类智能!

颠覆LLM格局!AI2新模型OLMo2,训练过程全公开,数据架构双升级

最近,非营利研究机构AI2上新了OLMo2系列模型,他们称之为「迄今为止最好的完全开源模型」。 OLMo 2系列包含7B和13B两个型号,相比如Llama 3.1和Qwen 2.5等开源模型达到了同等甚至更优的性能,同时FLOPS计算量更少,在性能和计算效率之间取得了极佳的平衡,为开源LLM开辟了新的可能性。 不同大小开源模型的性能对比,OLMo 2的表现优于同参数规模模型在多个下游任务上,OLMo 2展现出了强大的泛化能力和适应能力。