编辑丨toileter
光纤电缆正在逐渐靠近高性能计算机中的处理器,用玻璃取代铜连接。科技公司希望通过将光学连接从服务器外部移动到主板上,然后让它们与处理器并排放置,从而加速 AI 并降低其能源成本。
现在,科技公司准备在寻求成倍增加处理器潜力的道路上走得更远——通过滑入处理器下面的连接。
这就是 Lightmatter 采用的方法,它声称通过配置插入器进行光速连接而处于领先地位,不仅在处理器之间,而且在处理器的各个部分之间。
现在,Lightmatter 已准备好运行其名为 Passage 的技术。该公司计划到 2025 年底在主要客户系统中安装并运行该技术的生产版本。
首席执行官 Nick Harris 表示,这项技术预示着一个未来,不同的处理器可以汇集他们的资源并同步处理人工智能所需的大量计算。
该新闻以「OPTICAL INTERPOSERS COULD START SPEEDING UP AI IN 2025」为题,于 2025 年 1 月 22 日被报道在 spectrum.ieee.org。
光中介层
从根本上说,Passage 是一种中介层,是一块玻璃或硅片,较小的硅芯片在同一封装内连接和互连。
如今,许多顶级服务器 CPU 和 GPU 都由中介层上的多个硅晶片组成。该方案允许设计人员连接采用不同制造技术制造的芯片,并增加处理量和内存量,超出单个芯片所能达到的水平。
连接中介层上小芯片的互连是严格的电气互连。与主板上的链路相比,它们是高速和低能耗的链路。但它们无法与光子通过玻璃纤维的无阻抗流动相提并论。
通道链路是从 300 毫米的硅晶片上切割的,该晶片在表面下方含有一层薄薄的二氧化硅。多波段外部激光芯片提供 Passage 使用的光。Passage 与开箱即用的硅处理器芯片兼容,不需要对芯片进行根本的设计更改。
图示:计算小芯片堆叠在光中介层的顶部。
信号从 SerDes 传输到一组称为微环谐振器的收发器,这些收发器将位编码到不同波长的激光上。接下来,多路复用器将光波长组合到光电路上,在那里数据由干涉仪和更多的环形谐振器路由。
数据可以从光电路通过排列在芯片封装两侧的八个光纤阵列从处理器发送出去。或者数据可以流回同一处理器中的另一个芯片。该过程可逆运行,其中使用光电探测器和跨阻放大器将光解复用并转换回电能。
与典型的电气布置相比,处理器中任何小芯片之间的直接连接消除了延迟并节省了能源,典型的电气布置通常仅限于芯片周边。
光学元件的优势
光子互连的优势在于消除了电力固有的限制,即电力将数据移动得越远,电力消耗的能量就越多。
光子互连初创公司建立在这样一个前提之上,必须消除这些限制,才能使未来的系统满足即将到来的人工智能计算需求。
「对于数据中心的用途来说,电力要求越来越高,」Harris 继续说道。他声称,通道可以使数据中心使用六分之一到二十分之一的能源,并且随着数据中心规模的增长,能源使用效率会提高。
AI 推动光互联
Lightmatter 的金库在 10 月通过一轮 4 亿美元的 D 轮融资而增长。TechInsights 的分析师 James Sanders 说,对优化处理器网络的投资是「不可避免」趋势的一部分。
2023 年,10% 的服务器出货量实现了加速,这意味着它们包含与 GPU 或其他 AI 加速 IC 配对的 CPU。这些加速器与 Passage 旨在配对的加速器相同。
TechInsights 预测,到 2029 年,三分之一的服务器出货量将持续提高。投入光子互连的资金将会是从 AI 中获利所必需的助力。
相关链接:https://spectrum.ieee.org/optical-interposers