仅次于 Meta,马斯克透露特斯拉囤积的英伟达 H100 芯片数量

埃隆・马斯克麾下的特斯拉和其神秘的以人工智能为核心的公司 xAI,储备了大量的英伟达 H100 系列芯片。特斯拉意欲借此攻克自动驾驶的终极难题 ——L5 级自动驾驶,而 xAI 则肩负着实现马斯克的“终极真相人工智能”愿景。X 平台用户“The Technology Brother”最近发布消息称,Meta 公司已经囤积了全球最多的 H100 GPU,数量达到惊人的 35 万块。然而,马斯克对该排行榜将特斯拉和 xAI 的排名边缘化表示不满(1 万颗),并指出“如果计算正确,特斯拉应该是第二名,xAI 将是第三名”

埃隆・马斯克麾下的特斯拉和其神秘的以人工智能为核心的公司 xAI,储备了大量的英伟达 H100 系列芯片。特斯拉意欲借此攻克自动驾驶的终极难题 ——L5 级自动驾驶,而 xAI 则肩负着实现马斯克的“终极真相人工智能”愿景。

仅次于 Meta,马斯克透露特斯拉囤积的英伟达 H100 芯片数量

X 平台用户“The Technology Brother”最近发布消息称,Meta 公司已经囤积了全球最多的 H100 GPU,数量达到惊人的 35 万块。然而,马斯克对该排行榜将特斯拉和 xAI 的排名边缘化表示不满(1 万颗),并指出“如果计算正确,特斯拉应该是第二名,xAI 将是第三名”。

仅次于 Meta,马斯克透露特斯拉囤积的英伟达 H100 芯片数量

仅次于 Meta,马斯克透露特斯拉囤积的英伟达 H100 芯片数量

这番表态意味着特斯拉目前可能拥有 3 万到 35 万颗的 H100 GPU,而 xAI 则拥有大约 2.6 万到 3 万颗。今年 1 月,马斯克确认向特斯拉的 Dojo 超级计算机投入额外 5 亿美元(相当于约 1 万颗 H100 GPU),同时强调特斯拉“今年将在英伟达硬件上投入更多资金”,因为“在人工智能领域保持竞争力,目前的投入至少需要每年数十亿美元”。

IT之家注意到,xAI 也在积极储备算力。2023 年,马斯克为了组建 xAI,招募了来自 DeepMind、OpenAI、谷歌研究院、微软研究院、特斯拉以及多伦多大学的人工智能领域顶尖人才。彼时,xAI 据悉采购了大约 1 万颗英伟达的 GPU,不过当时应该指的是 A100 系列。从马斯克最近的表态来看,xAI 目前也囤积了相当数量的 H100 GPU。

然而,快速迭代的人工智能领域,让这些高端芯片正面临着被迅速淘汰的风险。今年 3 月,英伟达发布了 GB200 Grace Blackwell 超级芯片,该芯片融合了基于 ARM 架构的 Grace CPU 和两个 Blackwell B100 GPU。该系统能够运行包含 27 万亿参数的人工智能模型,在诸如聊天机器人问答等任务上的处理速度将提升 30 倍。

相关资讯

探秘全球最大 AI 集群 xAI Colossus:122 天建成,10 万张英伟达 H100 构筑马斯克 AI 愿景

科技媒体 servethehome 昨日(10 月 28 日)发布博文,应 xAI 公司邀请,参观了 Colossus 全球最大 AI 训练集群。 AI在线曾于今年 9 月报道,xAI 在 Supermicro 的帮助下,在短短 122 天时间内搭建 10 万张英伟达 H100,而该公司计划未来将再翻倍增加 10 万张 GPU,其中 5 万张为更先进的 H200。 xAI Colossus 配备了英伟达 HGX H100 服务器,每台服务器内含 8 张 H100 GPU,所有服务器都在 Supermicro 的 4U 水冷系统中运行,确保高效散热。

英伟达优先向 X 供应 AI 芯片,特斯拉“靠边”?马斯克称后者芯片多到“吃灰”

感谢据 CNBC 援引英伟达高级员工内部邮件消息称,马斯克向股东“夸大”了特斯拉的芯片采购情况,还将原本计划留给特斯拉的大量 AI 芯片转移给 X(推特)平台。报道称,马斯克命令英伟达允许 X 公司“插队”,使其拥有高于特斯拉的优先性,从而使特斯拉收到价值超 5 亿美元(IT之家备注:当前约 36.25 亿元人民币)处理器的时间推迟了数月,或将导致特斯拉建立超级计算机进度延误。报道还提到了一份去年 12 月的英伟达备忘录,里面写道:“相比特斯拉,埃隆优先考虑在 X 上部署 H100 GPU 集群,将原定用于特斯拉的

马斯克:xAI 训练 Grok-3 大模型用了 10 万块英伟达 H100 芯片

马斯克已经宣布其人工智能初创公司 xAI 的大语言模型 Grok-2 将于 8 月推出,将带来更先进的 AI 功能。虽然 Grok-2 还没亮相,但马斯克已经开始为其 Grok-3 进行造势。马斯克表示,训练 AI 聊天机器人需要数据集,而且从现有数据中清除大型语言模型 (LMM) 的工作量很大。他还谈到了 OpenAI 模型输出训练的几个问题。他透露 xAI 的 Grok-3 用了 10 万块英伟达 H100 芯片进行训练,预计将于年底发布,相信它会“非常特别”。H100 是英伟达开发的专门用于处理大语言模型(L