扎克伯格表示,2025年底Meta将拥有130万个用于AI的GPU

Meta 首席执行官马克・扎克伯格在最近的一篇 Facebook 帖子中宣布,公司计划在2025年大幅提升资本支出,旨在在激烈的人工智能竞争中保持领先地位。 扎克伯格表示,Meta 预计在2025年的资本支出将达到600亿到800亿美元,主要用于数据中心建设和扩充 AI 开发团队。 这一预算范围几乎是 Meta 去年350亿到400亿美元支出的两倍。

Meta 首席执行官马克・扎克伯格在最近的一篇 Facebook 帖子中宣布,公司计划在2025年大幅提升资本支出,旨在在激烈的人工智能竞争中保持领先地位。

扎克伯格表示,Meta 预计在2025年的资本支出将达到600亿到800亿美元,主要用于数据中心建设和扩充 AI 开发团队。这一预算范围几乎是 Meta 去年350亿到400亿美元支出的两倍。

芯片 科技 (1)

图源备注:图片由AI生成,图片授权服务商Midjourney

扎克伯格还透露,Meta 计划在今年上线约1吉瓦的计算能力,这相当于750,000个普通家庭的电力消耗。此外,预计到年底,公司的数据中心将拥有超过130万块 GPU(图形处理单元),这将大大增强 Meta 在 AI 领域的运算能力。

随着 AI 领域竞争的加剧,Meta 的投资计划显得尤为重要。目前,许多竞争对手也在加大对基础设施的投入。例如,微软计划在2025年为 AI 数据中心投入800亿美元,而 OpenAI 则正在参与一项名为 Stargate 的联合投资项目,该项目可能为其带来价值数千亿美元的数据中心资源。

Meta 在 AI 领域的重大投入,不仅反映出公司对技术发展的重视,也表明了其在行业中的竞争态势。扎克伯格在帖子中强调,未来几年,Meta 将致力于建设更强大的 AI 基础设施,以支持其在全球市场的竞争力。

划重点:  

🔹 Meta 计划在2025年将资本支出提升至600亿到800亿美元,主要用于 AI 和数据中心。  

🔹 预计今年上线约1吉瓦的计算能力,相当于750,000个家庭的用电量。  

🔹 竞争对手也在加大投入,微软计划投资800亿美元,OpenAI 参与的项目也可能带来数千亿美元的资源。

相关资讯

Meta 新建两座数据中心集群:内含超 4.9 万块英伟达 H100 GPU,专门训练 Llama3

感谢Meta 公司当地时间 12 日通过官方新闻稿公布了两座新的数据中心集群,该公司正希望通过英伟达的 GPU,在以 AI 为重点的开发中脱颖而出。据悉,这两座数据中心的唯一目的,是在消费者特定应用领域(IT之家注:包含声音或图像识别)中进行 AI 研究和大语言模型的开发,每个集群都包含了 24576 块英伟达 H100 AI GPU,将用于自家大语言模型 Llama 3 的训练。两座新建的数据中心集群都具有 400Gbps 互联功能,其中一个集群采用了 Meta 基于 Arista 7800 自主开发的 Fabr

Meta 训练 Llama 3 遭遇频繁故障:16384 块 H100 GPU 训练集群每 3 小时“罢工”一次

Meta 发布的一份研究报告显示,其用于训练 4050 亿参数模型 Llama 3 的 16384 个英伟达 H100 显卡集群在 54 天内出现了 419 次意外故障,平均每三小时就有一次。其中,一半以上的故障是由显卡或其搭载的高带宽内存(HBM3)引起的。由于系统规模巨大且任务高度同步,单个显卡故障可能导致整个训练任务中断,需要重新开始。尽管如此,Meta 团队还是保持了 90% 以上的有效训练时间。AI在线注意到,在为期 54 天的预预训练中,共出现了 466 次工作中断,其中 47 次是计划中断,419 次

小扎自曝砸重金训 Meta Llama 4 模型:24 万块 GPU 齐发力,预计 2025 年发布

Llama 3.1 刚发布不久,Llama 4 已完全投入训练中。这几天,小扎在二季度财报会上称,Meta 将用 Llama 3 的十倍计算量,训练下一代多模态 Llama 4,预计在 2025 年发布。这笔账单,老黄又成为最大赢家十倍计算量,是什么概念?要知道,Llama 3 是在两个拥有 24,000 块 GPU 集群完成训练。也就是说,Llama 4 训练要用 24 万块 GPU。那么,Meta 存货还够不够?还记得小扎曾在年初宣布,计划到年底要部署 35 万块英伟达 H100。他还透露了更多的细节,Meta