人工智能的普及造成了一场能源危机,但并不是无法解决。
人工智能(AI)的爆炸式增长促使科技巨头(包括 Google、Meta、亚马逊和微软等)开始构建超大规模数据中心,这些数据中心需要的电力非常多 —— 是以千兆瓦计算而不是兆瓦。有分析师表示,这些巨型数据中心使用现有的半导体技术来挑战美国老化的电网基础设施,以满足其能源消耗需求。
例如,高盛估计仅对 ChatGPT 的一次查询所消耗的数据中心电能就比语音识别等传统人工智能功能多 10 倍,因此我们需要更强大的数据中心来支持这种需求。
如今,生成式 AI(GenAI)处于爆发阶段,其参数量基本以亿计算。但是,在运行时,例如基于 Transformer 的这类模型无法像单词识别那样被压缩成小巧、快速的推理引擎。原因是它们不会返回简单的单词来响应用户输入,而是将用户查询与其庞大的神经网络中的数万亿个示例进行比较。这些响应需要从完整的段落到整篇白皮书、甚至是关于查询主题的整本书来查找。
市场调研公司 Tirias Research 创始人兼首席分析师 Jim McGregor 表示,「十年之后, 我们将需要更多的算力。一旦我们进入生成式 AI 大规模应用的阶段,视觉内容创作的需求将非常庞大 —— 我们需要指数级提升数据中心的性能和功耗。」
为了支持当前聊天级别的生成式 AI,Tirias 最新报告预测,美国数据中心的能源消耗将从现在的 1.4 太瓦时(TWh)增加到 2028 年的 67 太瓦时。高盛估计,如果将传统 AI 加入生成式 AI 的能耗计算,预计在同一时间段内数据中心能耗的增长会翻倍,结果是 AI 消耗大约占据数据中心总能耗的 19%,约占全美电网总发电量的 4%。
高盛评估报告显示,满足电网能源消耗强劲增长的方法是将电网的发电方式从燃煤发电转变为 60% 天然气 和 40% 可再生能源 (主要是太阳能和风能)发电。
报告地址:https://www.goldmansachs.com/pdfs/insights/pages/generational-growth-ai-data-centers-and-the-coming-us-power-surge/report.pdf
为了防止电网过载,市面上已经出现了使用核电发电机为超大规模数据中心提供专用电力的趋势,这些发电机被称为小型模块化反应堆(SMR)。
实际上,亚马逊已经从电力生产商 Talen Energy 购买了一个接近 1 吉瓦容量的核电数据中心园区。
与此同时,微软正试图通过投资无核废料聚变反应堆(与 Helion 合作)来超越 SMR 等裂变反应堆。
McGregor 表示:尽管当今的超大规模数据中心仍在使用现有的半导体技术和架构,但创新将长期受到能耗无限增长的限制。现阶段节能减排方面的创新令人惊叹,这种创新可与半导体行业的起步相媲美,而且在许多方面甚至增长速度更快。如果技术停滞不前,那么到本世纪末,我们将耗尽可用能源。
根据 Tirias 对 GenAI 的预测,数据中心使用低功耗混合 CPU/GPU 的 AI 加速器的数量将从目前的 362000 台增长到 2028 年的 1760 万台。
用创新来解决危机
生成式 AI 对能源的需求越来越大,各类厂家开始研制更低功耗的芯片。
英伟达研发了 CPU/GPU 混合芯片;AMD 赢得了 2022 年 Green500 超级计算机排名的冠军。
Cerebras 公司在自家芯片的顶部安装了一个水冷金属冷板,可以实现更有效地散热。
其他芯片制造商也在用节能的混合多芯片堆栈加速下一代数据中心处理器。此外,英特尔、三星和台积电 (TSMC) 正在研发用于下一代处理器的 3D 堆叠晶体管,这种晶体管在大幅提高性能的同时还节省了功耗。
半导体架构师也开始将整个数据中心重新视为一个单一系统(如混合片上系统),投资可持续、更节能的架构,例如将整个数据中心的机架改用水冷(而不是风冷)。
McGregor 表示,未来的数据中心还将利用多种能源之间的快速切换策略,包括太阳能、风能、天然气、地热、电网和核反应堆。
「人工智能的普及造成了一场能源危机,但并不是无法解决的危机。在我看来,所有这些危机论调中,最有趣的一点是,每当一项新技术开始普及时,危机论调就会一再出现 —— 危机预测者只是从现有技术进行推断,而没有考虑到创新解决方案,例如,在 20 世纪 90 年代,互联网开始快速发展,我们曾预测全球一半的电力将被互联网消耗。发生了什么?创新能够跟上需求。当比特币起飞时,同样大规模的危机论调再次出现,但它也失败了,现在我们听到的是关于人工智能发展的同样危机论调。」半导体市场研究公司 Objective Analysis 的经理 Jim Handy 表示道。
原文链接:https://cacm.acm.org/news/ais-increasing-power-needs/