英伟达发布新 AI 硬件:H200 NVL PCIe GPU 和 GB200 NVL4 超级芯片

H200 NVL 是此前 H200 SXM 的 PCIe AIC 降频版本;GB200 NVL4 超级芯片规模相当于 2 组单 CPU + 双 GPU 的 GB200 Grace Blackwell 超级芯片。

IT之家 11 月 19 日消息,英伟达当地时间昨日在 SC24 超算大会上推出了 2 款新的 AI 硬件,分别是 H200 NVL PCIe GPU 和 GB200 NVL4 超级芯片。

英伟达表示约七成的企业机架仅可提供不到 20kW 的电力供应,并采用空气冷却,而 PCIe AIC 形态的 H200 NVL 就是为这些环境推出的相对低功耗风冷 AI 计算卡。

英伟达发布新 AI 硬件:H200 NVL PCIe GPU 和 GB200 NVL4 超级芯片

▲ 四路 NVLink 桥接器互联的 H200 NVL

H200 NVL 为双槽厚度,最高 TDP 功耗从 H200 SXM 的 700W 降至 600W,各算力也均有一定下降(IT之家注:如 INT8 Tensor Core 算力下滑约 15.6% ),不过 HBM 内存容量和带宽是与 H200 SXM 相同的 141GB、4.8TB/s。

此外 H200 NVL PCIe GPU 支持双路或四路的 900GB/s 每 GPU 的 NVLink 桥接器互联。

英伟达表示 H200 NVL 内存容量是此前 H100 NVL 的 1.5 倍,带宽也达 1.2 倍,拥有 1.7 倍的 AI 推理性能,而在 HPC 应用中性能也高出 30%

英伟达此次还推出了面向单服务器解决方案的 GB200 NVL4 超级芯片,该模块聚合了 2 个 Grace CPU 和 4 个 Blackwell GPU,HBM 内存池容量达 1.3TB,相当于 2 组 GB200 Grace Blackwell 超级芯片,整体功耗自然也来到了 5.4kw。

英伟达发布新 AI 硬件:H200 NVL PCIe GPU 和 GB200 NVL4 超级芯片

▲ 图片引自德媒 Hardwareluxx

相较于包含 4 个 Grace CPU 和 4 个 Hopper GPU 的上代 GH200 NVL4 系统,新的 GB200 NVL4 拥有 2.2 倍的模拟性能、1.8 倍的 AI 训练性能和 1.8 倍的 AI 推理性能

GB200 NVL4 超级芯片将于 2025 年下半年上市。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关资讯

图灵奖得主LeCun:为什么未来几年AI更可能变得像狗一样聪明,而不是人类?

机器之能报道编辑:SiaAI 正在超越人类。上周,英伟达 CEO 黄仁勋本在《纽约时报》年度 DealBook 峰会上宣称。如果将通用人工智能 ( AGI ) 定义为能够以与人类智能「相当有竞争力」的方式完成测试的计算机,那么,「在未来五年内,我们将会看到这样的 AI 。」话音落下不久,Meta 首席人工智能科学家、深度学习先驱、图灵奖得主 LeCun 就在公开场合反驳了黄仁勋的说法。在上周纪念 Meta 基础人工智能研究团队( FAIR )成立 10 周年的活动中,LeCun 重申了他对 AI 在不久将来达到先进

英伟达、软银深化 AI 合作,后者将接收全球首个正式版 DGX B200 系统

软银将基于英伟达硬件构建全日本最强 AI 超级计算机;双方合作的 AI-RAN 技术可充分利用无线接入网的空闲容量。

英伟达 Jim Fan:复刻NLP的成功路,用通用模型开启具身智能的GPT-3时刻

还记得那只“骑”瑜伽球的机械狗吗? 过马路,走草地都稳稳当当,就算瑜伽球被放气也能如履平地。 怪不得之前有网友惊叹:机器人马上就要统治世界了吧?