Meta 首席科学家杨立昆谈 DeepSeek 震撼硅谷:这就是开源的力量

他表示:“他们提出了新想法,并基于其他人的工作进行创新。由于他们的工作是公开和开源的,所有人都能从中获益。这就是开源研究和开源技术的力量。”

本周,硅谷因为中国人工智能公司 DeepSeek 发布了其 R1 模型而感到震惊。第三方基准测试显示,这一模型超越了美国领先的人工智能公司,包括 OpenAI、Meta 和 Anthropic

据《商业内幕》今日报道,对于 Meta 的首席人工智能科学家杨立昆(Yann LeCun)来说,DeepSeek 的成功带来的最大启示是保持 AI 模型开源的重要性,这样每个人都能从中受益

Meta 首席科学家杨立昆谈 DeepSeek 震撼硅谷:这就是开源的力量

他表示,这并不是中国的人工智能“超越美国”,而是“开源模型战胜了专有模型”。

DeepSeek 的 R1 模型本身就是开源的,Meta 的 Llama 模型也如此。而最初以开源为使命的 OpenAI,近年来已经转向了闭源模式。杨立昆指出,DeepSeek“从开源研究和技术中获益”。

他表示:“他们提出了新想法,并基于其他人的工作进行创新。由于他们的工作是公开和开源的,所有人都能从中获益。这就是开源研究和开源技术的力量。”

1 月 20 日,DeepSeek 发布了 R1 模型,并称其展现了卓越的推理能力,同时表示正在推动开源人工智能的边界。

这一宣布让硅谷震惊,并迅速成为科技圈内讨论的焦点。在 DeepSeek 发布 R1 后不久,Meta 首席执行官扎克伯格表示,Meta 计划在 2025 年投入超过 600 亿美元(AI在线备注:当前约 4350.19 亿元人民币),进一步加大对人工智能的投资。值得一提的是,扎克伯格一直是开源模型的坚定支持者。

他在去年 9 月曾表示:“我未来 10 到 15 年的目标之一,是构建下一代开放平台,并让开放平台胜出。我认为这将带来一个更加充满活力的技术产业。”

开源支持者认为,开源能够使技术快速且民主地发展,因为任何人都可以修改和重新发布代码。与此相对,闭源模型的支持者认为,闭源的代码更具安全性,因为它保持私密。

OpenAI 首席执行官阿尔特曼在去年 11 月的 Reddit AMA 上表示,闭源模式让公司更容易达到“安全标准”。不过,他也表示:“我希望未来我们能开源更多的内容。”

相关资讯

一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo

开源大模型领域,又迎来一位强有力的竞争者。近日,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了一款强大的混合专家 (MoE) 语言模型 DeepSeek-V2,主打训练成本更低、推理更加高效。项目地址::DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language ModelDeepSeek-V2 参数量达 236B,其中每个 token 激活 21B 参数,支持 128K token 的上下文长度。与

DeepSeek开源数学大模型,高中、大学定理证明新SOTA

DeepSeek-Prover-V1.5 通过结合强化学习和蒙特卡洛树搜索,显著提升了证明生成的效率和准确性。AI 技术与数学发现的进展,正前所未有地交织在一起。前段时间,著名数学家陶哲轩在牛津数学公开讲座中做了主题为「AI 在科学和数学中的潜力」的主题分享。他指出,将 AI 整合到数学领域将使形式化证明的编写速度超过人类证明(人类证明容易出错)。这将成为一个关键转折点,意味着形式化证明的使用将不仅限于验证现有的证明,还将用于创造新的数学知识。这将通过广泛的人类数学家与 AI 数学家之间的协作来实现。我们将迎来一个

推理性能直逼o1,DeepSeek再次出手,重点:即将开源

DeepSeek 又出手了,这次又是重磅炸弹。 昨晚,DeepSeek 上线了全新的推理模型 DeepSeek-R1-Lite-Preview ,直接冲击 OpenAI o1 保持了两个多月的大模型霸主地位。 在美国数学竞赛(AMC)中难度等级最高的 AIME 以及全球顶级编程竞赛(codeforces)等权威评测中,DeepSeek-R1-Lite-Preview 模型已经大幅超越了 GPT-4o 等顶尖模型,有三项成绩还领先于 OpenAI o1-preview。