DeepSeek 梁文锋回应冯骥赞誉(更新:回答真实性存疑)

昨日游戏科学创始人、黑神话悟空制作人冯骥力推 DeepSeek 大模型,其认为 DeepSeek 可能是国运级别的科技成果。冯骥在发文中详细列举了 DeepSeek 的六大卓越特性,每一项都堪称业界突破。

更新:昨日游戏科学创始人、黑神话悟空制作人冯骥力推 DeepSeek 大模型,其认为 DeepSeek 可能是国运级别的科技成果。冯骥在发文中详细列举了 DeepSeek 的六大卓越特性,每一项都堪称业界突破。

据新浪科技报道,在知乎相关的问题下,今日幻方和深度求索(DeepSeek)两家公司的创始人梁文锋回答道:我们不过是站在开源社区巨人们的肩膀上,给国产大模型这栋大厦多拧了几颗螺丝。

梁文锋回答全文如下:

DeepSeek 梁文锋回应冯骥赞誉(更新:回答真实性存疑)

相关资讯

OpenAI首席研究官:DeepSeek独立发现了o1的一些核心思路,奥特曼、LeCun纷纷置评

成本打下来了,需求更多才对? 春节这几天,国内外 AI 圈都被 DeepSeek 刷了屏。 英伟达的股市震荡更是让全世界看得目瞪口呆(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。

自有歪果仁为DeepSeek「辩经」:揭穿围绕DeepSeek的谣言

围绕 DeepSeek 的谣言实在太多了。 面对 DeepSeek R1 这个似乎「一夜之间」出现的先进大模型,全世界已经陷入了没日没夜的大讨论。 从它的模型能力是否真的先进,到是不是真的只用了 550W 进行训练,再到神秘的研究团队,每个角度都是话题。

一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo

开源大模型领域,又迎来一位强有力的竞争者。近日,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了一款强大的混合专家 (MoE) 语言模型 DeepSeek-V2,主打训练成本更低、推理更加高效。项目地址::DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language ModelDeepSeek-V2 参数量达 236B,其中每个 token 激活 21B 参数,支持 128K token 的上下文长度。与