暴涨 8050%,富国银行预估 2030 年 AI 产业用电激增至 652 TWh

富国银行(Wells Fargo)预测今年 AI 用电需求为 8 TWh,而到 2030 年将激增到 652 TWh,将增长 8050%。富国银行表示 AI 用电主要用于训练 AI 模型方面,在 2026 年将达到 40 TWh,到 2030 年将达到 402 TWh;此外 AI 推理耗电量将会在 21 世纪 20 年代末出现快速增长。如果单纯看这个数字可能没有直观的感觉,那么这里再附上一组数据:2023 年中国全年用电为 9224.1 TWh,上海市全年用电为 184.9 TWh,深圳市全年用电为 112.8 T

富国银行(Wells Fargo)预测今年 AI 用电需求为 8 TWh,而到 2030 年将激增到 652 TWh,将增长 8050%。

暴涨 8050%,富国银行预估 2030 年 AI 产业用电激增至 652 TWh

富国银行表示 AI 用电主要用于训练 AI 模型方面,在 2026 年将达到 40 TWh,到 2030 年将达到 402 TWh;此外 AI 推理耗电量将会在 21 世纪 20 年代末出现快速增长。

如果单纯看这个数字可能没有直观的感觉,那么这里再附上一组数据:2023 年中国全年用电为 9224.1 TWh,上海市全年用电为 184.9 TWh,深圳市全年用电为 112.8 TWh

暴涨 8050%,富国银行预估 2030 年 AI 产业用电激增至 652 TWh

AI 行业正面临严重的用电荒挑战。AI在线以英伟达的 H100 AI GPU 为例,采用 SXM 外形的 H100 单机功耗就高达 700W,而英伟达的下一代 B200 AI GPU 更加恐怖,每片功耗将达到 1200W。

AMD 方面同样如此,上一代 Instinct MI250 AI 加速器的峰值功耗为 560 瓦,而该公司新推出的 MI300X AI 加速器的峰值功耗为 750 瓦,比上一代增加了 50%。

英特尔也不甘落后,其新款 Gaudi 2 AI 加速器的峰值功耗为 600W,新款 Gaudi 3 AI 加速器的峰值功耗为 900W(又增加了 50%)。

英特尔下一代 Falcon Shore 混合 AI 处理器的功耗更高,刷新业内最高纪录,每个芯片的峰值功耗达到了惊人的 1500W。

这还只是单独计算 GPU 部分,如果再加上 CPU 以及其它附加组件,其耗电量更加惊人,以英伟达 GB200(2 个 B200 GPU 和 1 个 Grace CPU)为例,功耗达到惊人的 2700W。

相关资讯

TechInsights:未来五年 AI 芯片将消耗全球超 1.5% 电力,产生超 10 亿吨碳排放

市场调研机构 TechInsights 今日发布最新预测称,数据中心 AI 芯片和加速器将继续主导全球半导体市场,从 2023 年到 2029 年,出货量将以 33% 的年复合增长率增长,达到每年 3300 万。该机构指出,生成式 AI 用例是芯片的最大驱动力,GPU 则是需求量最大的加速器。但在功率方面,“一些简单的计算”表明 AI 所需电力将在全球电力消耗中占据相当大的份额。以英伟达 H100 为例,其峰值功耗为 700W,与一台正在工作中的微波炉功耗大致相同。而随着超级芯片更新换代,峰值功耗仍有可能增加。一个

消息称英伟达有意收购 AI 基础设施虚拟化创企 Run:ai,交易金额最高十亿美元

据外媒 SiliconANGLE 报道,英伟达有意收购 AI 基础设施虚拟化初创企业 Run:ai,交易金额最高可达 10 亿美元(IT之家备注:当前约 72 亿元人民币)。Run:ai 的同名工作负载管理平台近日率先获得英伟达 DGX SuperPOD 认证。其 AI 编排技术可帮助用户轻松运行 AI 和机器学习项目,满足对生成式 AI 和大模型不断增长的要求。Run:ai 由其 CEO 奥姆里・盖勒(Omri Geller)和 CTO 罗宁・达尔(Ronen Dar)于 2018 年创立。两人是在特拉维夫大学电

详解AI加速器(一):2012年的AlexNet到底做对了什么?

AI、机器学习、深度学习的概念可以追溯到几十年前,然而,它们在过去的十几年里才真正流行起来,这是为什么呢?AlexNet 的基本结构和之前的 CNN 架构也没有本质区别,为什么就能一鸣惊人?在这一系列文章中,前苹果、飞利浦、Mellanox(现属英伟达)工程师、普林斯顿大学博士 Adi Fuchs 尝试从 AI 加速器的角度为我们寻找这些问题的答案。当代世界正在经历一场革命,人类的体验从未与科技如此紧密地结合在一起。过去,科技公司通过观察用户行为、研究市场趋势,在一个通常需要数月甚至数年时间的周期中优化产品线来改进