英特尔前 CEO 基辛格力挺 DeepSeek:将推动 AI 普及

基辛格认为,DeepSeek 的出现应该让科技行业牢记三个最重要的教训:降低成本意味着更广泛的采用;在限制条件下,创造力会蓬勃发展;“开放即胜利”。他指出,DeepSeek 将有助于打破基础 AI 模型工作日益封闭的局面。

近期 DeepSeek 推出了名为 R1 的开源 AI 推理模型,这一事件在科技行业引发了轩然大波。一方面,英伟达的股价大跌,另一方面,DeepSeek 的消费者应用迅速攀升至应用商店的榜首。

英特尔前 CEO 基辛格力挺 DeepSeek:将推动 AI 普及

上个月,DeepSeek 宣布,他们仅用了大约两个月的时间,利用包含约 2000 台英伟达 H800 GPU 的数据中心,以大约 550 万美元的成本完成了该模型的训练。上周,DeepSeek 发布了一篇论文,显示其最新模型的性能与全球最先进的推理模型相当。而这些全球领先的模型大多是在花费数十亿美元购买英伟达更快速、价格更高的 AI 芯片的数据中心中训练的。

DeepSeek 推出的这一高性能、低成本的模型在科技行业引发了激烈的反响。英特尔前 CEO、硬件工程师、目前担任即将上市的初创公司 Gloo(一家面向教堂的通讯和互动平台)董事长的帕特・基辛格(Pat Gelsinger)在 X 上兴奋地表示:“感谢 DeepSeek 团队。”他在英特尔任职期间,曾试图通过推出英特尔的替代 AI GPU——Gaudi 3 AI 来追赶英伟达,但未能成功。去年 12 月,基辛格离开了英特尔。

英特尔前 CEO 基辛格力挺 DeepSeek:将推动 AI 普及

基辛格认为,DeepSeek 的出现应该让科技行业牢记三个最重要的教训:降低成本意味着更广泛的采用;在限制条件下,创造力会蓬勃发展;“开放即胜利”。他指出,DeepSeek 将有助于打破基础 AI 模型工作日益封闭的局面。目前,OpenAI 和 Anthropic 等公司都采用闭源模式。

基辛格告诉 TechCrunch,R1 的表现令人印象深刻,Gloo 已经决定不采用 OpenAI 的服务并为其付费。Gloo 正在开发一项名为 Kallm 的 AI 服务,该服务将提供聊天机器人和其他服务。他说:“我的 Gloo 工程师们今天正在使用 R1。他们本可以使用 o1,但他们只能通过 API 访问 o1。”他透露,Gloo 计划在未来两周内从头开始重建 Kallm,使用他们自己的开源基础模型。他对此表示:“这令人兴奋。”

基辛格认为,DeepSeek 将使 AI 变得更加实惠,不仅 AI 会无处不在,优质的 AI 也会无处不在。他举例说:“我希望我的 Oura 智能戒指有更好的 AI,我希望我的助听器有更好的 AI,我希望我的手机有更多的 AI,我希望我的嵌入式设备,比如电动汽车中的语音识别系统有更好的 AI。”

基辛格强调,DeepSeek 证明了 AI 的进步可以通过工程创造力来实现,而不是简单地投入更多的硬件和计算资源。他对此感到非常兴奋。

基辛格还表示:“让中国开发者提醒我们开放生态系统的强大,对我们西方科技界来说可能有点尴尬。”

相关资讯

OpenAI首席研究官:DeepSeek独立发现了o1的一些核心思路,奥特曼、LeCun纷纷置评

成本打下来了,需求更多才对? 春节这几天,国内外 AI 圈都被 DeepSeek 刷了屏。 英伟达的股市震荡更是让全世界看得目瞪口呆(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。

英特尔放大招:新制程、能效核一起上,144核的至强6,性能成倍提升

今日,英特尔推出英特尔® 至强® 6能效核处理器,每个 CPU 拥有多达 144 个内核,机架密度提高达3倍1,以高性能、高密度、高能效和低TCO,满足多样的云级工作负载,是数据中心高效能之选。随着企业业务云化和大语言模型等人工智能应用的爆发,社会对算力的需求正飞速增长,对数据中心提出了前所未有的要求,包括更强的计算力、更大的存储容量和更高的网络带宽等。同时,算力规模的增大也给数据中心带来越来越高的能源等成本支出。在 “双碳” 目标驱动下,数据中心亟需通过持续变革实现算力提升和能耗降低的双重目标,同时保持低碳运营。

一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo

开源大模型领域,又迎来一位强有力的竞争者。近日,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了一款强大的混合专家 (MoE) 语言模型 DeepSeek-V2,主打训练成本更低、推理更加高效。项目地址::DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language ModelDeepSeek-V2 参数量达 236B,其中每个 token 激活 21B 参数,支持 128K token 的上下文长度。与