谷歌 CEO 皮查伊盛赞 DeepSeek:非常出色,AI 成本下降有利于整个行业发展

皮查伊指出,随着 AI 推理成本不断降低,AI的应用场景将进一步拓展,这为谷歌创造了新的增长机会。而谷歌的 Gemini 2.0 Flash 和 2.0 Flash Thinking 模型在效率上可与 DeepSeek R1 相抗衡。

据《商业内幕》报道,谷歌首席执行官桑达尔・皮查伊与苹果、微软和 Meta 的高管一道,对中国人工智能开发商 DeepSeek 给予高度评价,并表示 AI 成本的下降将有利于谷歌以及整个行业的发展

皮查伊在今日的财报电话会议上谈及 DeepSeek 时表示,“首先,我认为他们团队实力非凡,他们的工作非常出色。”

皮查伊指出,随着 AI 推理成本不断降低,AI 的应用场景将进一步拓展,这为谷歌创造了新的增长机会。而谷歌的 Gemini 2.0 Flash 和 2.0 Flash Thinking 模型在效率上可与 DeepSeek R1 相抗衡

它们是目前最具效率的模型之一,甚至可以和 DeepSeek 的 V3 和 R1 相比,我认为这主要得益于我们强大的技术全栈:从研发到端到端的优化,以及我们对每次查询成本的执着。

据AI在线了解,在本财季的财报电话会议上,DeepSeek 已成为科技行业的热门话题,几乎所有主要企业都被问及对这家中国公司的看法。

DeepSeek 上月底发布的 AI 模型 DeepSeek-R1 震惊硅谷和华尔街。该模型的性能据称可与 OpenAI 的 o1 相媲美,但成本却大幅降低。

皮查伊在电话会议中还表示:“我们之所以对 AI 的发展如此兴奋,部分原因在于可以通过不断降低使用成本,推动更多的应用场景成为可能,而这正是我们看到的巨大机会空间。这个机会空间极为庞大。”

相关资讯

OpenAI首席研究官:DeepSeek独立发现了o1的一些核心思路,奥特曼、LeCun纷纷置评

成本打下来了,需求更多才对? 春节这几天,国内外 AI 圈都被 DeepSeek 刷了屏。 英伟达的股市震荡更是让全世界看得目瞪口呆(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。

一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo

开源大模型领域,又迎来一位强有力的竞争者。近日,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了一款强大的混合专家 (MoE) 语言模型 DeepSeek-V2,主打训练成本更低、推理更加高效。项目地址::DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language ModelDeepSeek-V2 参数量达 236B,其中每个 token 激活 21B 参数,支持 128K token 的上下文长度。与

DeepSeek开源数学大模型,高中、大学定理证明新SOTA

DeepSeek-Prover-V1.5 通过结合强化学习和蒙特卡洛树搜索,显著提升了证明生成的效率和准确性。AI 技术与数学发现的进展,正前所未有地交织在一起。前段时间,著名数学家陶哲轩在牛津数学公开讲座中做了主题为「AI 在科学和数学中的潜力」的主题分享。他指出,将 AI 整合到数学领域将使形式化证明的编写速度超过人类证明(人类证明容易出错)。这将成为一个关键转折点,意味着形式化证明的使用将不仅限于验证现有的证明,还将用于创造新的数学知识。这将通过广泛的人类数学家与 AI 数学家之间的协作来实现。我们将迎来一个