郭明錤:DeepSeek 爆红将加速端侧 AI 发展

DeepSeek 的流行直接推动了英伟达 H100 训练需求的增长,表明优化的训练方法(可有效降低成本)能够刺激市场,同时也再次证明了 CUDA 生态的竞争力(用户为何选择 H100)。
感谢天风国际分析师郭明錤于 5 日发文称,DeepSeek 爆红后,端侧 AI 的发展速度加快。DeepSeek 的流行直接推动了英伟达 H100 训练需求的增长,表明优化的训练方法(可有效降低成本)能够刺激市场,同时也再次证明了 CUDA 生态的竞争力(用户为何选择 H100)。

AI在线附郭明錤分析大意如下:

台积电和英伟达预计,到 2026 年,端侧 AI(on-device AI)将迎来快速增长。台积电在财报电话会议上提到,2026 年端侧 AI 发展将更加明显,而英伟达计划在 2025 年第四季度至 2026 年上半年量产其 AI PC 芯片 N1X / N1。

DeepSeek 爆红后,端侧 AI 的发展速度加快

DeepSeek 的流行直接推动了英伟达 H100 训练需求的增长,表明优化的训练方法(可有效降低成本)能够刺激市场,同时也再次证明了 CUDA 生态的竞争力(用户为何选择 H100)。

更值得关注的是,DeepSeek 带动了本地大模型(LLM)部署的热潮。DeepSeek R1 通过优化训练方法,提升了本地设备上中小规模 LLM 的性能,而用户对云端 DeepSeek 服务的数据安全担忧也加速了这一趋势。预计未来将有更多类似 DeepSeek 的开源模型问世,进一步推动本地 LLM 生态的发展。

目前,常见的本地 DeepSeek 部署方式包括:使用 LM Studio 进行便捷部署,Ollama 运行模型,4-bit / 8-bit 量化降低显存需求同时保持性能,模型规模覆盖 15 亿到 700 亿参数,硬件范围从低端笔记本到搭载英伟达独立 GPU 的高端 PC。

目前,本地 DeepSeek 部署仍处于小众市场,对英伟达云端 AI 芯片的需求影响不大。但从长期来看,尽管终端计算会部分替代云计算,它同样可能带来新的云端需求(类似 H100)。端侧 AI 和云端计算预计将同步增长,并最终形成一个融合的 AI 生态系统。

尽管长期来看云计算增长仍具潜力,但端侧 AI 发展速度超出预期,可能会导致云计算增速短期内低于市场预期,并影响投资情绪。未来,可能减少云计算增长不确定性的因素包括 GB200 NVL72 量产成功带动计算规模扩展,以及 AI 在机器人、自动驾驶和多模态领域的商业化进展逐步明朗。

就台积电和英伟达而言,台积电仍是端侧 AI 发展的主要受益者(受益于芯片升级),而英伟达在端侧 AI 市场面临的竞争压力远超云计算市场,可能影响短期投资信心。

郭明錤:DeepSeek 爆红将加速端侧 AI 发展

相关资讯

郭明錤:DeepSeek 加速生成式 AI 产业迈入新阶段

郭明錤称,就算没有DeepSeek-R1,这两个趋势终将显著浮现,但DeepSeek-R1的出现加速了趋势发生。

OpenAI首席研究官:DeepSeek独立发现了o1的一些核心思路,奥特曼、LeCun纷纷置评

成本打下来了,需求更多才对? 春节这几天,国内外 AI 圈都被 DeepSeek 刷了屏。 英伟达的股市震荡更是让全世界看得目瞪口呆(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。

一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo

开源大模型领域,又迎来一位强有力的竞争者。近日,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了一款强大的混合专家 (MoE) 语言模型 DeepSeek-V2,主打训练成本更低、推理更加高效。项目地址::DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language ModelDeepSeek-V2 参数量达 236B,其中每个 token 激活 21B 参数,支持 128K token 的上下文长度。与