
Server power consumption soars threefold! Is AI's final battle about not just computing power, but also electricity?

算力是 AI 世界发展的基础,而算力的瓶颈归根到底还是电力,随着争夺 AI 军备竞赛日趋白热化,对电力的争夺变得越来越重要。
算力、能耗双双发出警报。
算力是 AI 世界发展的基础,而算力的瓶颈归根到底还是电力,ChatGPT 等 AI 大模型训练起来到底多费电?
7 月 15 日,根据 Digital Information World 发布的最新报告,数据中心为训练 AI 模型产生的能耗将为常规云工作的三倍,预计到 2030 年,美国数据中心的电力需求将以每年约 10% 的速度增长。

数据显示,OpenAI 训练 GPT-3 耗电为 1.287 吉瓦时,大约相当于 120 个美国家庭 1 年的用电量。而这仅仅是训练 AI 模型的前期电力,仅占模型实际使用时所消耗电力的 40%。
2023 年 1 月,OpenAI 仅一个月已耗用可能等同 17.5 万个丹麦家庭的全年用电量。谷歌 AI 每年耗电量达 2.3 太瓦时,相当于亚特兰大所有家庭 1 年用电量。
据了解,AI 服务器的功率较普通服务器高 6-8 倍,这对于电源的需求也将同步提升,通用型服务器原来只需要 2 颗 800W 服务器电源,而 AI 服务器的需求直接提升为 4 颗 1800W 高功率电源,服务器能耗成本直接 3100 元直接飙升到 12400 元,大涨 3 倍。

数据中心客户为此支付的电费也更为高昂。市场研究公司 Synergy Research Group 的首席分析师 John Dinsdale 坦言,数据中心运营商正将运行AI应用程序产生的额外成本直接转嫁到客户身上。
一些数据中心的运营商们趁机提高商业租赁价格,以应对为运行日益能源密集型工作负载的计算机服务器组群(stack)供电和散热而产生的额外成本。
据全球最大商业房地产服务公司之一的世邦魏理仕(CBRE Group)统计,数据中心客户囊括了小型企业到大型云服务供应商,目前消耗电力的速度快于数据中心运营商扩展容量的速度。由于人工智能用例的增加,供应限制日益严重,这为数据中心收取的价格带来了上行压力。
在强大的电力需求下,据世邦魏理仕统计,今年前三个月,美国北弗吉尼亚州的数据中心客户每月每千瓦电力支付的费用高达 140 美元,比一年前的 130 美元增长了 7.7%。
“吃电” 的大模型
据咨询机构 Tirias Research 建模预测,到 2028 年数据中心功耗将接近 4250 兆瓦,比 2023 年增加 212 倍,数据中心基础设施加上运营成本总额或超 760 亿美元。
这堪称 “生成式 AI 颠覆数据中心”,其增长对新兴服务(例如搜索、内容创建和结合生成式 AI 的业务自动化)的商业模式和盈利能力都提出了挑战,成本更是亚马逊 AWS 年运营成本的两倍多。
该机构称,生成式 AI 带来的种种创新功能,都是以处理性能和功耗方面的高昂成本为代价。因此,虽然人工智能的潜力可能是无限的,但物理和成本最终可能是界限。
为了降低成本,该机构建议,可使用高度优化、甚至是更简单、更专业的小型神经网络模型来降低数据中心成本,方法是减少云端的模型规模,将海量参数网络用于快速训练较小的模型,并将工作负载完全移出云端,从而将生成式 AI 应用程序更加经济高效地分发给智能手机、PC、车辆和移动 XR 产品等分布式平台上运行:
“五年前,各公司在年度 Hot Chips 半导体技术会议上开始对数据中心功耗敲响警钟,当时预测全球计算需求可能在十年内超过全球发电总量。那还是在生成式 AI 迅速采用之前,而生成式 AI 有可能以更快的速度增加计算需求。
天下没有免费的午餐——消费者会要求更好的生成式 AI 输出,而这将抵消效率和性能的提升。随着消费者使用量的增加,成本将不可避免地攀升。将计算转移到边缘,并将其分配给 PC、智能手机和 XR 设备等客户端是降低资本和运营成本的关键途径。”
如今全球范围内群模大战,需要消耗的能源和产生的碳排放体量之巨大,可以想见。
按照当前的技术路线和发展模式,AI 进步将引发两个问题:一方面,数据中心的规模将会越来越庞大,其功耗也随之水涨船高,且运行越来越缓慢。
另一方面,AI 芯片朝高算力、高集成方向演进,依靠制程工艺来支撑峰值算力的增长,制程越来越先进,其功耗和水耗也越来越大。并且,受摩尔定律约束,传统计算能力已接近极限,面临冯·诺依曼架构瓶颈、物理微缩的挑战。
这两个问题都将导致 AI 能耗问题愈加严重。
打响电力争夺战
庞大的电力需求无疑将进一步对数字基础设施造成压力,现有的数据中心已无法满足 AI 日益增长的电力需求。
去年,位于北弗吉尼亚的数据中心一度面临停电危机,能源问题迫在眉睫。
为了解决 AI 能耗日益上涨的问题,数字基础设施公司 DigitalBridge 正计划投入数十亿美元建设并翻新用于生成式 AI 工作负载的数据中心。
Digital Information World 认为,下一代数据中心将比当前弗吉尼亚及圣克拉拉市的数据中心配套设施更加全面。选址应当位于电力供应不成问题的低成本地区,为了满足 AI 的算力需求,数据中心运营商必须适应并采用新颖的解决方案。
随着争夺 AI 军备竞赛日趋白热化,对电力的争夺变得越来越重要。
“生成式AI颠覆数据中心”,电力需求对各大公司的商业模式和盈利能力都提出了挑战。生成式 AI 带来的种种创新,都是以处理性能和功耗方面的高昂成本为代价。
因此,虽然人工智能的潜力可能是无限的,但物理和成本最终可能是界限。各大科技公司们正在尝试一切可能的策略来确保电力需求,为变革性的能源未来奠定基础。
