IBM 全新光学技术可缩短 GPU 闲置时间,大幅加快 AI 模型训练速度

IBM 宣布开发出一种新的光学技术,能够以光速训练 AI 模型,同时大幅节省能源。该公司表示,通过将这项突破应用于数据中心,训练一个 AI 模型所节省的能源相当于 5000 个美国家庭一年的能源消耗。

IBM 宣布开发出一种新的光学技术,能够以光速训练 AI 模型,同时大幅节省能源。该公司表示,通过将这项突破应用于数据中心,训练一个 AI 模型所节省的能源相当于 5000 个美国家庭一年的能源消耗。

IBM 全新光学技术可缩短 GPU 闲置时间,大幅加快 AI 模型训练速度

该公司解释说,虽然数据中心通过光纤电缆与外部世界连接,但内部仍然使用铜线。这些铜线连接着 GPU 加速器,而 GPU 加速器在等待来自其他设备的数据时会有大量时间处于空闲状态,同时消耗能量并推高成本。

IBM 高级副总裁兼研究总监 Dario Gil 称:“随着生成式 AI 对更多能源和处理能力的需求,数据中心必须进化,而共封装光学技术(CPO)可以使这些数据中心面向未来。通过这一突破,未来的芯片将像光纤电缆进出数据中心传输数据一样进行通信,从而开启一个更快、更可持续的通信新时代,能够处理未来的 AI 工作负载。”

AI在线注意到,IBM 在一篇技术论文中概述了其新的 CPO 原型。通过显著增加数据中心的带宽,可以最大限度地减少 GPU 的闲置时间,从而加速 AI 处理。IBM 称,大型语言模型(LLM)的训练时间可以从三个月缩短到三周。同时,更高的能源效率将降低能源消耗,并减少与训练 LLM 相关的成本。

相关资讯

为了保持 AI 未来的开放性,Meta 和 IBM 发起联盟

编辑 | 白菜叶Meta、IBM 以及数十家初创公司和研究人员成立了一个联盟,捍卫更加开放和协作的人工智能开发方法,并与 OpenAI 和谷歌就该技术的未来展开了辩论与对抗。哲学辩论已成为人工智能未来的中心战场,人们越来越担心微软支持的 OpenAI 和谷歌将独自支撑这项对我们日常生活变得越来越重要的技术。IBM 首席执行官 Arvind Krishna 在周二宣布成立人工智能联盟的声明中表示:「这是定义人工智能未来的关键时刻。」ChatGPT 的创建者 OpenAI 和 Google 捍卫了大型语言模型的闭源系统

IBM CEO:DeepSeek 证明我们是正确的,小型且高效的模型同样能有实际成果

“历史早有先例。计算机发展早期,存储和计算能力的成本高得惊人。然而,随着技术进步和规模效应,这些成本迅速下降,推动了计算机的普及和创新。”

IBM发布视觉语言模型Granite-Vision-3.1-2B,轻松解析复杂文档

随着人工智能技术的不断发展,视觉与文本数据的融合成为了一项复杂的挑战。 传统的模型往往难以准确解析表格、图表、信息图和图示等结构化视觉文档,这一限制影响了自动内容提取和理解能力,进而影响了数据分析、信息检索和决策等应用。 面对这一需求,IBM 近期发布了 Granite-Vision-3.1-2B,一款专为文档理解设计的小型视觉语言模型。