消息称三星组建百人工程师团队,争夺英伟达下一代人工智能芯片订单

感谢据韩国科技媒体 KED Global 报道,三星电子为了拿下英伟达下一代人工智能图形处理器 (AI GPU) 的高端内存 (HBM) 订单,组建了一支由约 100 名顶尖工程师组成的“精英团队”,他们一直致力于提高制造产量和质量,首要目标是通过英伟达的测试。据业内人士透露,英伟达首席执行官黄仁勋对三星目前提供的 8 层和 12 层 HBM3E 内存的良品率和质量并不满意,要求三星进行改进。HBM3E 内存是英伟达下一代 Hopper H200 和 Blackwell B200 AI GPU 的关键部件,但目前主
感谢据韩国科技媒体 KED Global 报道,三星电子为了拿下英伟达下一代人工智能图形处理器 (AI GPU) 的高端内存 (HBM) 订单,组建了一支由约 100 名顶尖工程师组成的“精英团队”,他们一直致力于提高制造产量和质量,首要目标是通过英伟达的测试。

消息称三星组建百人工程师团队,争夺英伟达下一代人工智能芯片订单

据业内人士透露,英伟达首席执行官黄仁勋对三星目前提供的 8 层和 12 层 HBM3E 内存的良品率和质量并不满意,要求三星进行改进。HBM3E 内存是英伟达下一代 Hopper H200 和 Blackwell B200 AI GPU 的关键部件,但目前主要由三星的韩国竞争对手 SK 海力士供应。

IT之家注意到,三星在 2 月份成功研发了全球首款 36GB 的 12 层 HBM3E 内存,并希望本月通过英伟达的质量测试。据报道,三星还提前预定了生产线,以期提高产量,满足英伟达不断增长的需求。

消息人士称:“三星的目标是通过快速增加对英伟达的供应,占据更高的市场份额。预计三星将在第三季度加快供货速度。”

三星芯片业务负责人、总裁兼首席执行官 Kyung Kye Hyun 表示:“我们在第一场战役中落后了,但我们必须赢得第二场。”

目前,SK 海力士正向英伟达新款 H200 和 B200 AI GPU 提供 8 层 HBM3E 内存,同时还提供了 12 层 HBM3E 样品用于性能评估,预计于 2024 年第三季度供货。

相关资讯

一年一更同步英伟达,AMD 公布 2024~2026 年 Instinct GPU 加速器路线图

感谢AMD 今日公布直至 2026 年的 Instinct GPU AI 加速器路线图。AMD 宣布其 Instinct 产品线更新节奏调整与英伟达相同的一年一更,以满足不断扩张的 AI 应用需求。AMD Instinct MI325X 加速器将在今年四季度率先上市 ,其可视为 MI300 更换 HBM3E 内存的刷新版本。该加速器内存容量将从 MI300X 的 192GB 提升至 288GB,同时内存带宽也从 5.3TB / s 小幅增加至 6TB / s(IT之家注:内存等效速率从 5.2Gbps 提升至 5.

和TensorFlow一样,英伟达CUDA的垄断格局将被打破?

CUDA 闭源库将和 TensorFlow 一样逐渐式微。

三星计划今年底明年初推出 AI 芯片 Mach-1,采用 LPDDR 而非 HBM 内存

三星电子 DS(设备解决方案)部门负责人庆桂显(Kye Hyun Kyung)在今日的三星电子股东大会上宣布,三星电子计划今年底明年初推出采用 LPDDR 内存的 AI 芯片 Mach-1。庆桂显表示,Mach-1 芯片已完成基于 FPGA 的技术验证,正处于 SoC 设计阶段。该 AI 芯片将于今年底完成制造过程,明年初推出基于其的 AI 系统。韩媒 Sedaily 报道指,Mach-1 芯片基于非传统结构,可将片外内存与计算芯片间的瓶颈降低至现有 AI 芯片的 1/8。此外,该芯片定位为一种轻量级 AI 芯片,