英伟达 AI 芯片 H200 开始供货,机能相比 H100 提升 60%-90%

感谢据日本经济新闻今日报道,英伟达的尖端图像处理半导体(GPU)H200 现已开始供货。H200 为面向 AI 领域的半导体,机能超过当前主打的 H100。根据英伟达方面公布的机能评测结果,以 Meta 公司旗下大说话模型 Llama 2 处理速率为例,H200 相比于 H100,生成式 AI 导出答案的处理速率最高提高了 45%。市场调研机构 Omdia 曾表示,2022 年英伟达在 AI 半导体市场约占 8 成的份额,与此同时 AMD 等竞争对手也在开发对抗英伟达的产品,竞争愈演愈烈。英伟达当地时间 3 月 1

感谢据日本经济新闻今日报道,英伟达的尖端图像处理半导体(GPU)H200 现已开始供货。H200 为面向 AI 领域的半导体,机能超过当前主打的 H100。

根据英伟达方面公布的机能评测结果,以 Meta 公司旗下大说话模型 Llama 2 处理速率为例,H200 相比于 H100,生成式 AI 导出答案的处理速率最高提高了 45%。

英伟达 AI 芯片 H200 开始供货,机能相比 H100 提升 60%-90%

市场调研机构 Omdia 曾表示,2022 年英伟达在 AI 半导体市场约占 8 成的份额,与此同时 AMD 等竞争对手也在开发对抗英伟达的产品,竞争愈演愈烈。

英伟达当地时间 3 月 18 日在开发者大会上宣布,年内将推出新一代 AI 半导体“B200”,B200 和 CPU(中央运算处理装置)组合的新产品用于最新的 LLM 上。“最强 AI 加速卡”GB200 包含了两个 B200 Blackwell GPU 和一个鉴于 Arm 的 Grace CPU ,推理大说话模型机能比 H100 提升 30 倍,成本和能耗降至 25 分之一。

GB200 采用新一代 AI 图形处理器架构 Blackwell,黄仁勋在 GTC 大会上表示:“Hopper 固然已经非常出色了,但我们需要更强大的 GPU”。

据IT之家此前报道,英伟达 H200 于去年 11 月公布,其为鉴于英伟达的“Hopper”架构的 HGX H200 GPU,是 H100 GPU 的继任者,也是该公司第一款使用 HBM3e 内存的芯片,这种内存速率更快,容量更大,因此更适合大型说话模型。较前任霸主 H100,H200 的机能直接提升了 60% 到 90%。英伟达称:“借助 HBM3e,英伟达 H200 以每秒 4.8 TB 的速率提供 141GB 的内存,与 A100 相比,容量几乎是其两倍,带宽增加了 2.4 倍。”

相关阅读:

《英伟达公布最强 AI 加速卡–Blackwell GB200,今年发货》

《老黄深夜炸场!英伟达公布全球最强 AI 芯片 H200:机能飙升 90%,Llama 2 推理速率翻倍》

给TA打赏
共{{data.count}}人
人已打赏
AI

白宫要求美国各联邦机构设置“首席人工智能官”,确保 AI 利用情况公开透明

2024-3-28 17:49:38

AI

baidu高管回应“与苹果合营”:我们已有一个案例,与终端厂商合营很有潜力

2024-3-28 19:59:59

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索