算力再飞跃!英伟达官宣下一代AI芯片Rubin,性能剑指Hopper900倍

在 GTC2025大会上,英伟达正式官宣其下一代人工智能(AI)芯片平台,并命名为「Vera Rubin」,致敬美国著名天文学家薇拉·鲁宾(Vera Rubin),延续了英伟达以科学家名字命名架构的传统。 该系列的首款产品 Vera Rubin NVL144预计将于2026年下半年发布。 英伟达首席执行官黄仁勋表示,Rubin 的性能将达到当前 Hopper 架构的900倍,相较之下,最新的 Blackwell 架构已经实现了对 Hopper68倍的性能提升,预示着 Rubin 将带来又一次巨大的算力飞跃。

在 GTC2025大会上,英伟达正式官宣其下一代人工智能(AI)芯片平台,并命名为「Vera Rubin」,致敬美国著名天文学家薇拉·鲁宾(Vera Rubin),延续了英伟达以科学家名字命名架构的传统。该系列的首款产品 Vera Rubin NVL144预计将于2026年下半年发布。

英伟达首席执行官黄仁勋表示,Rubin 的性能将达到当前 Hopper 架构的900倍,相较之下,最新的 Blackwell 架构已经实现了对 Hopper68倍的性能提升,预示着 Rubin 将带来又一次巨大的算力飞跃。

QQ20250319-095910.png

根据官方公布的信息,Vera Rubin NVL144在 FP4精度下的推理算力高达3.6ExaFLOPS,在 FP8精度下的训练性能为1.2ExaFLOPS。与 GB300NVL72相比,性能提升了3.3倍。Rubin 将搭载最新的 HBM4显存,带宽达到惊人的13TB/s,并配备75TB 的快速内存,是上一代的1.6倍。在互联方面,Rubin 支持 NVLink6和 CX9,带宽分别达到260TB/s 和28.8TB/s,均为前代的两倍。

标准版的 Rubin 芯片将配备 HBM4显存,其整体性能将远超当前的旗舰级 Hopper H100芯片。

值得一提的是,Rubin 平台还将引入名为 Veru 的全新 CPU,作为 Grace CPU 的继任者。Veru 包含88个定制的 Arm 核心,每个核心支持176个线程,并通过 NVLink-C2C 实现高达1.8TB/s 的高带宽连接。英伟达表示,定制的 Vera CPU 的速度将比去年 Grace Blackwell 芯片中使用的 CPU 提升一倍。

QQ20250319-095918.png

与 Vera CPU 搭配使用时,Rubin 在推理任务中的算力可达50petaflops,是 Blackwell20petaflops 的两倍以上。此外,Rubin 还将支持高达288GB 的 HBM4内存,这对于需要处理大型 AI 模型的开发者来说至关重要。

与 Blackwell 类似,Rubin 实际上由两个 GPU 组成,通过先进的封装技术整合为一个整体运行,进一步提升了整体的计算效率和性能。Rubin 的发布无疑再次展现了英伟达在 AI 芯片领域的强大创新能力和对未来算力需求的深刻洞察。

相关资讯

英伟达将下一代AI芯片命名为Rubin:纪念发现暗物质天文学家

英伟达公司近日宣布,其下一代AI芯片将以著名天文学家Vera Rubin的名字命名。 Vera Rubin,这位1928年出生于美国费城的杰出女性,以其卓越的学术成就和对科学界的深远影响,成为了这一命名背后的光辉典范。 Vera Rubin的学术生涯充满了传奇色彩。

距离“全自动”漏洞挖掘又近了一步!腾讯安全大数据实验室论文入选ACM CCS 2023

计算机领域国际权威学术顶会ACM CCS 2023于11月26日在丹麦哥本哈根开幕。腾讯安全大数据实验室团队论文《Hopper: Interpretative Fuzzing for Libraries》被大会收录,昨天,实验室研究员谢雨轩受邀出席大会进行主题分享。该论文提出了解释性模糊测试(Interpretative Fuzzing)方法,展示了如何基于动态反馈来学习API内外的约束进行代码自动化生成,从而在没有任何外部专家知识的前提下生成有效可用的代码调用方式,并且根据这些代码来挖掘漏洞。该研究方法的出现旨在

奥特曼筹数十亿美元建全球晶圆厂网络,自造AI芯片

可以低成本代替英伟达?据彭博社消息,OpenAI CEO 萨姆・奥特曼(Sam Altman)近日再次为一家人工智能芯片企业筹集了数十亿美元的资金,希望建立一个范围覆盖全球的晶圆厂「企业网络(network of factories)」,并计划与未具名的顶级芯片制造商合作。报道称,奥特曼已与几家大型潜在投资者进行了谈判,希望能筹集到晶圆厂所需的巨额资金。在生成式 AI 快速爆发的时代,运行 AI 模型面临的主要困难是算力限制。在 ChatGPT 、 DALL-E 等生成式 AI 模型的背后,研究者们投入了大量的算力