Arm CEO 示警:美国未来 20%-25% 的电量将被 AI 数据中心消耗

感谢当地时间周二,Arm 公司 CEO 雷内・哈斯(Rene Haas)发出了严厉的警告,他表示人工智能收集的信息越多,他们就越聪明,但他们收集的信息越多,需要的力量就越大。包括 OpenAI 的 ChatGPT 在内的 AI 模型需要大量电力,这可能导致到 2030 年,AI 数据中心将消耗美国 20% 至 25% 的电力需求,相比今天的 4% 大幅增加。他特别强调,类似 ChatGPT 这样的大语言模型耗电非常严重,这些模型需要“永不满足”的电力才能有效运行。据IT之家此前报道,ChatGPT 每天需要处理超过
感谢当地时间周二,Arm 公司 CEO 雷内・哈斯(Rene Haas)发出了严厉的警告,他表示人工智能收集的信息越多,他们就越聪明,但他们收集的信息越多,需要的力量就越大。包括 OpenAI 的 ChatGPT 在内的 AI 模型需要大量电力,这可能导致到 2030 年,AI 数据中心将消耗美国 20% 至 25% 的电力需求,相比今天的 4% 大幅增加。

他特别强调,类似 ChatGPT 这样的大语言模型耗电非常严重,这些模型需要“永不满足”的电力才能有效运行。据IT之家此前报道,ChatGPT 每天需要处理超过 2 亿次请求,其电量消耗高达每天 50 万千瓦时。相比之下,美国普通家庭每天的平均用电量仅为 29 千瓦时,这意味着 ChatGPT 的日耗电量是普通家庭的 1.7 万倍以上。

Arm 现在正着眼于降低人工智能技术的功耗,随着电力需求的惊人增长,哈斯强调了在没有更高效的能源解决方案的情况下推进 AI 研究的挑战。

国际能源机构(IEA)在《2024 电力》报告中强调了这个问题,全球 AI 数据中心的耗电量将是 2022 年的十倍,并指出部分原因在于 ChatGPT 这样的大语言模型所需的电力,远高于谷歌等传统搜索引擎。

荷兰中央银行数据科学家 Alex de Vries 在一份发表于可持续能源期刊《焦耳》上的论文中计算得出,如果谷歌将生成式人工智能技术应用于所有搜索,其每年将消耗约 290 亿千瓦时电量,这相当于肯尼亚、危地马拉和克罗地亚一年的总发电量。

相关资讯

美国得州电力需求飙升,2030 年数据中心用电预计需 30 座核电站才能满足

“数据中心正在影响 Ercot 系统的可靠性。过去,大型工业用电负荷从未真正威胁到电网的稳定性,但现在,我们正进入这样的时代。”

马斯克的“世界最强大 AI 数据中心”目前由 14 台移动发电机供电,引环保担忧

埃隆・马斯克的孟菲斯超级计算集群(Memphis Supercluster)已上线,据马斯克介绍称,该集群在单个 RDMA fabric 上使用 10 万张液冷 H100,是“世界上最强大的 AI 训练集群”。如此庞大的算力自然需要惊人的电力供应,每个 H100 GPU 至少消耗 700 瓦电力,这意味着整个数据中心同时运行需要超过 70 兆瓦的电力,这还不包括其他服务器、网络和冷却设备的耗电量。令人惊讶的是,由于与当地电网的供电协议尚未敲定,马斯克目前使用 14 台大型移动发电机为这个巨型设施供电。AI 和半导体

华为发布星河 AI 电力网络,覆盖“发、输、变、配、调”等场景

8 月 15 日,2024 电力信息通信新技术大会在北京召开。会上,华为数据通信产品线能源行业解决方案总监杨新峰发表“华为星河 AI 电力网络,构筑电力智能化发展的通信基座”主题演讲,发布华为星河 AI 电力网络。据杨新峰介绍,华为星河 AI 电力网络解决方案包含 7 大子方案,覆盖“发、输、变、配、调”等电力场景,AI在线汇总信息如下:1、星河 AI 数据中心网络:NSLB 算法实现全网负载均衡,网络吞吐量提升至 95%。独家 iReliable 三级极速切换。网络数字地图打造超智运维,故障分钟级定位。2、智能