ChatGPT的横空出世,让全世界都加入了这场AI游戏。用AI画画、用AI写代码、甚至还有把AI当作工具来炒股的······但是,有外国分析师指出,这场AI盛宴的背后,是巨大的能源消耗,AI,或许可能引起下一次能源危机!
在了解这个观点前,我们需要先了解,这些铁疙瘩是如何学习的。
有两个主要阶段,第一是训练阶段,第二是推理阶段。前者通过收集信息来创建模型,后者通过模型生成内容,分析新数据并产生结果。
而无论哪个阶段,离不开的就是能源。AI模型越强大复杂,训练所需的时间和能源就越多。以Open AI的GPT 3为例。根据斯坦福大学的一份报告,训练GPT 3所需的能源足以为普通美国家庭提供超过120年的电力。
这还不是终点。英伟达指出,Transformer大模型训练算力需求将以275倍/2年的速度增长。这意味着AI的能源需求将会越来越大。
除了训练和运行大模型之外,聊天机器人在内的AI辅助产品,这些产品也将消耗数太瓦的能量。
你以为这就结束了?不不不, AI的发展进一步推动数据中心的建设。据国际能源署报告称,数据中心占全球能源需求的1%,约为200 TWh,这相当于泰国或南非的总用电量。
可以说,AI发展带来的好处无疑是巨大的,但是对于能源的需求,也是一种挑战!但幸运的是,科技公司已经在着手解决AI带来的能源危机了。
解决的方式主要有三个:
一、设备升级:减少与AI相关的能源消耗将需要新的处理器架构。对此,厂商们都在致力于推出更高效的产品。
AMD已经设定了一个目标,在五年内将其用于AI训练和高性能计算的处理器和加速器的能效提高30倍。
而GPU的产品占据更多数据中心份额,减少CPU的使用,也同样是个好消息。据英伟达表示,在某些应用中,如大型语言模型训练,其基于GPU的服务器使用的能量比基于CPU的替代方案少25倍。
二、数据中心的改进:在2022年,谷歌DeepMind发布了一个为期三个月的实验结果,训练一个名为BCOOLER的学习代理来优化谷歌的数据中心冷却程序。
结果是:BCOOLER实现了大约13%的能源节约,这表明数据中心的能源效率正在提高,即使数据中心的数量在增长。
而随着AI的发展,数据中心建设的过程中,相关公司也有强烈的动力来优化数据中心的设计和能源消耗。
三、可再生能源的普及:根据美国能源信息管理局的数据,2022年可再生能源占美国电力产生的21.5%。随着美国电力网中80%的能源来自非可再生能源,短期内电力可能仍主要来自传统化石燃料。但随着时间推移,AI的能源需求可能为促进更多可再生能源的开发。
未来,随着AI的普及,这种革命性的机器学习形式的能源影响不应被忽视。能源问题的重视,或许能为投资者创造一次新的机遇。
$美国超微公司(AMD)$ $英伟达(NVDA)$ $微软(MSFT)$