一年一更同步英伟达,AMD 公布 2024~2026 年 Instinct GPU 加速器路线图

感谢AMD 今日公布直至 2026 年的 Instinct GPU AI 加速器路线图。AMD 宣布其 Instinct 产品线更新节奏调整与英伟达相同的一年一更,以满足不断扩张的 AI 应用需求。AMD Instinct MI325X 加速器将在今年四季度率先上市 ,其可视为 MI300 更换 HBM3E 内存的刷新版本。该加速器内存容量将从 MI300X 的 192GB 提升至 288GB,同时内存带宽也从 5.3TB / s 小幅增加至 6TB / s(IT之家注:内存等效速率从 5.2Gbps 提升至 5.
感谢AMD 今日公布直至 2026 年的 Instinct GPU AI 加速器路线图。

AMD 宣布其 Instinct 产品线更新节奏调整与英伟达相同的一年一更,以满足不断扩张的 AI 应用需求。

路线图

AMD Instinct MI325X 加速器将在今年四季度率先上市 ,其可视为 MI300 更换 HBM3E 内存的刷新版本。

该加速器内存容量将从 MI300X 的 192GB 提升至 288GB,同时内存带宽也从 5.3TB / s 小幅增加至 6TB / s(IT之家注:内存等效速率从 5.2Gbps 提升至 5.9Gbp / s)。

MI325X 性能参数

AMD 宣称 MI325X 的内存大小和单服务器可运行模型参数规模均是英伟达 H200 的两倍,内存带宽、理论 FP16 算力峰值、理论 FP8 峰值这三项则是英伟达 H200 的 1.3 倍。

而 AMD 将在 2025 年推出下一代 MI350 加速器系列的首款产品 MI350X。MI350X 将采用 3nm 工艺,基于 CDNA4 架构,同样包含 288GB HBM3E 内存。

MI 350系列

MI350X 支持 FP4 和 FP6 数据类型,AMD 宣称其相较现有的 MI300 系列 AI 推理性能提升约 35 倍。

CDNA4 推理性能

此外 MI350 的 HBM 内存容量将是英伟达 B200 的 1.5 倍,AI 算力也是竞争对手的 1.2 倍。

MI350 对比 B200

最后,AMD 预计将在 2026 年推出基于 CDNA "Next" 架构的 Instinct MI400 加速器系列。

2024 台北国际电脑展专题

相关资讯

调查:AMD AI 芯片 Instinct MI300X 吸引大量用户弃用英伟达

根据最近的一项调查,大量人工智能专业人士正计划从英伟达转向采用 AMD Instinct MI300X GPU。TensorWave 联合创始人 Jeff Tatarchuk 透露,他们进行了一项独立调查,涵盖 82 名工程师和人工智能专业人士。其中,约有 50% 的受访者表示他们对 AMD Instinct MI300X GPU 充满信心,因为相比于英伟达的 H100 系列产品,MI300X 不仅拥有更出色的性价比,而且供应充足,避免了遇到货源紧张的问题。Jeff 还提到,TensorWave 公司也将采用 MI

消息称三星组建百人工程师团队,争夺英伟达下一代人工智能芯片订单

感谢据韩国科技媒体 KED Global 报道,三星电子为了拿下英伟达下一代人工智能图形处理器 (AI GPU) 的高端内存 (HBM) 订单,组建了一支由约 100 名顶尖工程师组成的“精英团队”,他们一直致力于提高制造产量和质量,首要目标是通过英伟达的测试。据业内人士透露,英伟达首席执行官黄仁勋对三星目前提供的 8 层和 12 层 HBM3E 内存的良品率和质量并不满意,要求三星进行改进。HBM3E 内存是英伟达下一代 Hopper H200 和 Blackwell B200 AI GPU 的关键部件,但目前主

和TensorFlow一样,英伟达CUDA的垄断格局将被打破?

CUDA 闭源库将和 TensorFlow 一样逐渐式微。