TrendForce:DeepSeek 的低成本 AI 模型将催生光通信需求

TrendForce集邦咨询近日发布的研报指出,DeepSeek模型虽降低AI训练成本,但AI模型的低成本化有望扩大应用场景,进而增加全球数据中心建置量。

TrendForce 集邦咨询近日发布的研报指出,DeepSeek 模型虽降低 AI 训练成本,但 AI 模型的低成本化有望扩大应用场景,进而增加全球数据中心建置量

AI在线从报告中获悉,光收发模块作为数据中心互连的关键组件,将受惠于高速数据传输的需求。未来 AI 服务器之间的数据传输,都需要大量的高速光收发模块,这些模块负责将电信号转换为光信号并通过光纤传输,再将接收到的光信号转换回电信号。

相较于传统的电信号传输,光纤通信具有更高的频宽、更低的延迟和更低的信号衰减,能够满足 AI 服务器对高效能数据传输的严苛要求,这使得光通信技术成为 AI 服务器不可或缺的关键环节,AI 服务器的需求持续推升光收发模块 800Gbps 以及 1.6Tbps 的增长动力。

该机构统计,2023 年 400Gbps 以上的光收发模块全球出货量为 640 万个,2024 年约 2040 万个,预估至 2025 年将超过 3190 万个,年增长率达 56.5%

相关资讯

OpenAI首席研究官:DeepSeek独立发现了o1的一些核心思路,奥特曼、LeCun纷纷置评

成本打下来了,需求更多才对? 春节这几天,国内外 AI 圈都被 DeepSeek 刷了屏。 英伟达的股市震荡更是让全世界看得目瞪口呆(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。

自有歪果仁为DeepSeek「辩经」:揭穿围绕DeepSeek的谣言

围绕 DeepSeek 的谣言实在太多了。 面对 DeepSeek R1 这个似乎「一夜之间」出现的先进大模型,全世界已经陷入了没日没夜的大讨论。 从它的模型能力是否真的先进,到是不是真的只用了 550W 进行训练,再到神秘的研究团队,每个角度都是话题。

一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo

开源大模型领域,又迎来一位强有力的竞争者。近日,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了一款强大的混合专家 (MoE) 语言模型 DeepSeek-V2,主打训练成本更低、推理更加高效。项目地址::DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language ModelDeepSeek-V2 参数量达 236B,其中每个 token 激活 21B 参数,支持 128K token 的上下文长度。与