AI能耗问题是一个日益凸显的议题,例如:AI大模型在训练阶段需要消耗大量的计算资源。据斯坦福人工智能研究所发布的《2023年人工智能指数报告》,GPT-3一次训练的耗电量高达1287兆瓦时,相当于排放了552吨二氧化碳,这大约等于126个家庭一年的碳排放量。此外,AI模型在推理阶段同样消耗大量电能。一次用户请求可能需要消耗2.96瓦时的电力,这显著高于传统互联网搜索的耗电量。
随着AI技术的广泛应用,数据中心的数量和规模不断增加,电力需求也随之激增。据预测,到2030年,仅人工智能数据中心就有望在美国增加约323太瓦时的电力需求,这大约是纽约市目前每年用电量的6倍多。
全球范围内,数据中心、人工智能和加密货币行业的电力消耗预计将在未来几年内翻倍,这大大高于全球电力需求的平均增速。
“AI的尽头是能源”,此观点一出,引起行业热议。作为算力的主要载体,数据中心的用电量和供能方式正在发生变化。对于数据中心企业而言,如何降低能耗,提高能效是一个永恒的议题。面对AI的能源需求,光伏和储能技术成为解决之道。
图:AI的尽头是光伏吗
光伏发电作为一种清洁、可再生的能源形式,其发展潜力巨大。而储能技术则为光伏发电提供了必要的补充,通过储存过剩的电能,可以在日照不足时释放能量,保证电网的稳定运行,储能技术与光伏技术的结合,可以进一步提高能源利用效率。核能作为一种高效、高密度的能源,也可以为AI提供稳定的电力支持。核能,尤其是核聚变技术,因其几乎无限的燃料供应和环境友好的特性,被视为解决能源危机和气候变化问题的关键技术。全球范围内,核聚变商业化的进展正在加速,如果成功实现,将为人类提供几乎无限的清洁能源。
虽然光伏、储能和核能等能源技术可以为AI提供重要的能源支持,但AI的能源需求是复杂和多样化的。因此,需要采取多种能源技术相结合的综合解决方案,以满足AI在不同场景下的能源需求。
例如,在数据中心等关键设施中,可以采用光伏和储能技术来降低对传统能源的依赖;在能源供应不稳定的地区,可以利用核能等高效能源技术来确保AI的稳定运行。
科技巨头们已经意识到AI与能源的紧密联系,并开始积极布局。微软、谷歌、亚马逊等公司不仅在寻求核能作为数据中心的能源解决方案,还通过投资和合作,推动核能技术的发展。例如,亚马逊与Talen Energy合作,确保数据中心能够全天候获得供电保障。