TrendForce:DeepSeek 的低成本 AI 模型将催生光通信需求

TrendForce集邦咨询近日发布的研报指出,DeepSeek模型虽降低AI训练成本,但AI模型的低成本化有望扩大应用场景,进而增加全球数据中心建置量。

TrendForce 集邦咨询近日发布的研报指出,DeepSeek 模型虽降低 AI 训练成本,但 AI 模型的低成本化有望扩大应用场景,进而增加全球数据中心建置量

AI在线从报告中获悉,光收发模块作为数据中心互连的关键组件,将受惠于高速数据传输的需求。未来 AI 服务器之间的数据传输,都需要大量的高速光收发模块,这些模块负责将电信号转换为光信号并通过光纤传输,再将接收到的光信号转换回电信号。

相较于传统的电信号传输,光纤通信具有更高的频宽、更低的延迟和更低的信号衰减,能够满足 AI 服务器对高效能数据传输的严苛要求,这使得光通信技术成为 AI 服务器不可或缺的关键环节,AI 服务器的需求持续推升光收发模块 800Gbps 以及 1.6Tbps 的增长动力。

该机构统计,2023 年 400Gbps 以上的光收发模块全球出货量为 640 万个,2024 年约 2040 万个,预估至 2025 年将超过 3190 万个,年增长率达 56.5%

相关资讯

OpenAI首席研究官:DeepSeek独立发现了o1的一些核心思路,奥特曼、LeCun纷纷置评

成本打下来了,需求更多才对? 春节这几天,国内外 AI 圈都被 DeepSeek 刷了屏。 英伟达的股市震荡更是让全世界看得目瞪口呆(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。

“新神登场”,消息称 DeepSeek R2 模型有望 5 月前发布

据路透社报道,三位知情人士透露,DeepSeek 正在加速推出其 R2 人工智能模型,该公司最初计划在五月推出,但目前正在努力尽快推出。

服务器总是繁忙?DeepSeek-R1本地部署图文版教程来啦

最近一段时间,国产大模型DeepSeek-R1在市场上迅速崛起,成为了众多用户的新宠。 然而,伴随其热度与用户量的急剧攀升,由此导致服务器繁忙的状况频繁出现。 为了摆脱服务器繁忙的困扰,本地部署DeepSeek-R1成为了一个绝佳的解决方案,这不仅减少了对网络连接的依赖,还能增强数据安全性。