全球数字化使对计算能力的需求呈指数级增长。专家们曾在上世纪90年代末预测,个人电脑将引发不可持续的电力消耗,但事实证明这是错误的。现在,其他专家警告称,人工智能(AI)将进一步加速需求,并可能导致电力短缺。这些担忧有多现实?
弗吉尼亚州及其位于华盛顿郊外的数百个数据中心经常被认为是热点地区。 事实上,当地公用事业公司 Dominion Energy 最近大幅提高了对未来电力需求的预测,这完全是由于满足人工智能需求的数据中心的增加。 加州能源和信息技术 (IT) 专家乔纳森·库米 (Jonathan Koomey) 表示:“但这种情况发生在弗吉尼亚州并不意味着它会发生在整个国家。” 他指出,2023 年美国的电力总需求低于 2022 年。“需求爆炸性增长是怎么回事?事实并非如此。”
不是“危机”
Koomey 表示,IT 和电信行业约占全球电力需求的 5%,其中约 2% 用于最终用户设备,另外 2% 用于骨干网和本地网络,只有 1% 用于数据中心。 他补充道,就能源使用而言,人工智能约占所有数据中心的 10%。 “未来几年,这 1% 中的 10% 可能会增加一倍或三倍,所以这远低于用电量的 1% 增长;这不是一场危机,而且它也将取代其他一些数据中心的用电量 ”。
这些数字在欧盟委员会在最近对已发表报告的审查中发现的估计的“显著范围”之内。这些人认为数据中心的功耗占全球需求的0.8%-1.6%。然而,法国电信监管机构Arcep最近发布了一份低得多的法国0.5%的估计,而国际能源署(IEA)发现全球数字略高,为1.7%,但中国为2.7%,欧洲为3.8%,美国为4.6%。该机构认为,在这三个地方,未来几年数据中心功耗可能每年增长7%-10%,达到总需求的3%-6%。
Koomey认为,这“可能是错误的”,因为计算效率提高得更快。他坚持说:“我们正处于研究如何利用人工智能实现这一目标的开始阶段。我们可以改变硬件架构,我们可以创建专用设备,我们可以优化软件和硬件,但这些很少应用于大型人工智能模型。”。
批评者认为,近年来事实证明,通过微型化半导体来提高计算效率(即摩尔定律)变得更加困难。
麻省理工学院一组研究人员最近在《科学》杂志上发表的一篇文章表示同意:“随着小型化的衰落,硅制造的改进将不再提供社会 50 多年来所享有的可预测的、广泛的计算机性能提升。”
但他们补充称,“软件性能工程、算法开发和硬件精简可以继续让计算机应用在后摩尔时代变得更快,与摩尔定律多年来积累的收益相媲美。”另一篇文章发现,在2010年至2020年期间,典型数据中心服务器的每计算耗电量下降了四分之一,这主要是由于处理器效率的提高和闲置功耗的减少,每TB已安装存储的瓦特数下降了九分之一。
创新
除了计算本身(占数据中心电力需求的 40% 左右)之外,还可以通过更好的冷却来实现改进(占另外 40%),以及剩下的 20%(由电源系统、存储消耗) 设备和通讯设备。 IEA 表示,传统的高效冷却系统可以减少 10% 的电力需求,而使用液体冷却剂的先进“直接芯片”系统可以再节省 20%。 IEA 还指出,谷歌报告使用其 DeepMind AI 将其数据中心冷却系统的电力需求减少了 40%。 向节能云和“超大规模”数据中心的转变还允许“在不显著增加电力消耗的情况下进行大规模运营”。
在高需求地区,新的化石燃料发电能力只是多种选择之一。 其中包括新的输电线路和带有电池的可再生能源发电,可能以虚拟发电厂的形式出现。 库米认为:“这些地方的公用事业公司希望建造更多的传统发电厂,他们正在利用这一点来推动监管机构允许他们这样做。”
大型科技公司也在致力于数据中心之间计算负载的“动态转移”。
“我们开发并试点了一种新方法,通过将一些非紧急计算机任务转移到其他时间和地点,在不影响您每天使用的服务的情况下,在当地电网压力较大时减少数据中心的电力消耗,” 谷歌最近宣布。 这种方法已经过测试的例子包括2022年12月至2023年3月能源价格创下历史新高的欧洲,以及最近热浪和冬季风暴等极端天气事件期间的美国各地。
Koomey 解释说,电力系统状况和延迟(或数据在发送器和接收器之间传输所需的时间)是负载转移计算的主要参数。 “搜索或提取网页对延迟敏感,但像人工智能训练这样的事情更像是科学计算,它们不需要大量的输入和输出,并且对延迟不敏感,所以你可以想象将它们移动到不同的地方 - 在美国或国外——拥有更多可再生能源。”
作者:Philippe Roos 是 Energy Intelligence 的资深记者兼高级分析师