当前位置:首页|资讯|生成式AI|人工智能|谷歌|OpenAI|ChatGPT

生成式AI有多耗能:谷歌耗电堪比一国电量,ChatGPT答个问题“喝水”10毫升

作者:上游新闻发布时间:2024-03-11

原标题:生成式AI有多耗能:谷歌耗电堪比一国电量,ChatGPT答个问题“喝水”10毫升

11日,据环球时报援引《纽约客》杂志报道,OpenAI的ChatGPT聊天机器人每天消耗超过50万千瓦时的电力,用于处理约2亿个用户请求,相当于美国家庭每天用电量的1.7万多倍。

据报道,随着生成式人工智能的广泛应用,预计到2027年,整个人工智能行业每年将消耗85至134太瓦时的电力,这显示了AI技术对电力资源的巨大需求。是什么导致了生成式AI如此高的能耗?在未来有何解决方案?对此,上游新闻进行了了解。

耗电:堪比一国用电量

随着人工智能技术的发展,对芯片的需求急剧增加,进而带动了电力需求的激增。全球数据中心市场的耗电量已经从十年前的100亿瓦增加到如今的1000亿瓦水平。根据美国机构Uptime Institute的预测,到2025年,人工智能业务在全球数据中心用电量中的占比将从2%增加到10%。

据经济观察网消息,2023年10月10日,阿姆斯特丹自由大学商业与经济学院的博士候选人德弗里斯(Alex de Vries)在一篇论文中表示,像ChatGPT这样的大型语言模型需要大量的数据集来训练人工智能,在人工智能模型经过训练阶段后,会过渡到推理阶段,然后根据新的输入生成信息。推理阶段消耗的能源似乎更多。

研究公司SemiAnalysis表示,OpenAI公司需要3617台英伟达的HGX A100服务器,总共28936个图形处理单元(GPU)来支持ChatGPT,这意味着每天的能源需求就要达到564兆瓦时,这要比训练阶段的能源需求高得多。

过去的工作常常关注的是人工智能训练所消耗的能量,但德弗里斯提醒道,需要更多考虑人工智能的整个生命周期。

此外,英伟达生产的GPU芯片作为人工智能领域的命脉,该公司在2023年第二季度的收入为135亿美元,其数据中心业务较上一季度增长了141%,这一点足以证明人工智能产品需求的迅速增长。

德弗里斯表示:“考虑到未来几年的预期产量,到2027年,新制造的人工智能设备的用电量将与荷兰一样多,这也与瑞典、阿根廷等国的用电量处于同一范围。”

德弗里斯还承认:“最坏的情况就是,仅谷歌一家公司的人工智能就可以消耗与爱尔兰等国家一样多的电力。”

德弗里斯在论文中设想,如果将生成式人工智能集成到谷歌的每一个搜索中,那么届时谷歌就会大幅增加对电力的需求。

另一家研究机构New Street Research也得出了类似的估计,认为谷歌将需要大约40万台服务器,这将导致每天消耗62.4吉瓦时,每年消耗22.8太瓦时的能源。

费水:答50个问题“喝”水500毫升

除了耗电,生成式AI同样耗费着巨量的水资源。

要对AI进行大量训练,也就意味着需要更强的算力中心和与之匹配的散热能力。在AI快速进步的道路上,对水资源的消耗也不断加码升级。

谷歌发布的2023年环境报告显示,公司前一年的用水量同比显著增加了20%,达到56亿加仑(21198305立方米),而其中绝大部分都被用于为该公司的数据中心散热。而这并不是个例。2023年初,由OpenAI打造的ChatGPT火遍全球,一跃成为人工智能领域的现象级应用,也引发了全球互联网公司的AIGC“军备竞赛”。

科罗拉多大学与德克萨斯大学的研究人员在一篇名为“让AI更节水”的预印论文中也发布了训练AI的用水估算结果,显示训练GPT-3所需的清水量相当于填满一个核反应堆的冷却塔所需的水量。ChatGPT(在GPT-3推出之后)每与用户交流25到50个问题,就得“喝下”一瓶500毫升的水来降温。

除了谷歌,另一个巨头Meta在美国亚利桑那州建设了数据中心,仅2022年用水量就超过260万立方米。随着全球人工智能“军备竞赛”的持续升级和大量科技公司竞相建设新数据中心,其消耗的水量很可能会继续上升。

正在大力开发人工智能的微软也在其最新的环境报告中透露,2022年公司用水量同比前一年激增了34%,达到640万立方米,比2500个奥林匹克标准游泳池的水量还多。外部研究人员认为这与微软的人工智能研究有关。

对此,有专家表示,整体来看,当前数据中心耗水已经成为制约数据中心快速发展的因素之一。中国电子节能技术协会数据中心节能技术委员会秘书长吕天文介绍称,为了节约宝贵的自来水资源,很多企业尝试用各种方法为数据中心散热,例如,微软曾尝试部署海下数据中心,Facebook数据中心选址北极圈附近,阿里云千岛湖数据中心使用深层湖水制冷,“但上述方法总是会带来新的问题,目前国内数据中心的用水主要使用的还是自来水,近几年政府层面更鼓励数据中心企业利用中水(循环再利用的水)。”

据悉,此前北京市发展改革委修订印发了《关于进一步加强数据中心项目节能审查的若干规定》,其中就新增了关于引导数据中心充分利用再生水的内容:再生水输配管网覆盖范围内的数据中心,设备冷却水、机房加湿等非生活用水应采用再生水。

碳排放:两月1000吨

除了消耗大量的电力和水资源,以生成式AI为代表的智算算力还是碳排放大户。

新冠病毒的分子信息建模、石油勘探中的环境模拟、航空航天导航,需用到超算算力;互联网、金融、工业、城市治理等,对通用算力和智算算力需求很大;智能网联车、视频监控等,偏重于边缘计算算力。而今,城市经济、社会、生活无时无刻不需要算力。

阿里云中国区解决方案副总余勇举例,在淘宝,拍照搜索商品的“拍立淘”,对算力要求是在30亿张图片中搜寻,2秒出结果;在制造能源领域,智算算力已运用于海螺集团150条水泥产线的经营决策优化,运用于对山东德州电力的负荷预测等,算力需求惊人。“国内企业的智算算力需求,平均每3.5个月就会翻一倍。”

服务器。资料图

“截至2022年底,全国算力总规模达到180eflops(每秒18000亿亿次浮点运算),位居全球第二。”中国信通院云大所副所长李洁博士说。

需求急速扩增同时,越来越多数据中心被戴上“能耗大户”帽子。有研究机构指出,训练ChatGPT这样一个包含1750亿参数的大模型,带来两个月排碳1000吨的巨大消耗。

对此,早在2021年11月,我国就已出台公共机构碳达峰方案,新建大型、超大型数据中心须全部达到绿色数据中心要求,绿色低碳等级达4a级以上,电能利用效率(pue)1.3以下。

应对:优化架构提升能效

在气候挑战日益严峻的今天,不断膨胀的人工智能正消耗着越来越多的电力、水资源,产生着越来越多的碳排放。据预测,到2030年,智能计算的年耗电量将达到5000亿度,占全球发电总量的5%。如果AlphaGo对弈一盘棋就要耗去1吨煤的发电量,训练对弈千万盘棋局就要燃烧20万吨煤,那么让大模型赋能千行百业,地球能否承受得起如此巨大的碳排放?

此外,根据摩尔定律,计算机的算力每18个月翻一番,而并行训练日益复杂的AI网络的需求,每三四个月就会翻一番。中国工程院院士、清华大学信息科学技术学院院长戴琼海指出,近五年来,作为AI发展重要支撑的算力正逐渐变为制约AI继续向前的瓶颈。

为此,行业大佬及科研人员也在进行着不断的研究和探索。

近日,人工智能芯片龙头英伟达的创始人兼CEO黄仁勋表示,人工智能的未来发展与状态和储能紧密相连。他强调,不应仅仅关注计算力,而是需要更全面地考虑能源消耗问题。

OpenAl的创始人山姆·奥特曼也提出了类似的看法。他认为,未来AI技术的发展将高度依赖于能源,特别是光伏和储能技术的进步。

服务器。资料图

“在控制大模型带来的能耗和成本方面,半导体企业可以通过优化计算架构、提升能效等措施,降低大模型的能耗和成本。”北京大学集成电路学院研究员贾天宇说。

长期以来,人工智能及其热门应用常常被喻为“大脑”,比如自动驾驶被喻为“车轮上的大脑”。但是,人脑并不是仅仅依靠大脑工作,脑干、小脑也承担了许多任务,比如控制心跳和体温,保持身体的稳定性、协调性等。如果大脑进行所有的决策和控制,人体就很难负担大脑需要的能量。

比照包含大脑、小脑、脑干的人脑系统,恩智浦半导体执行副总裁兼首席技术官Lars Reger描述了一种更加高效节能的计算体系:以AI算力芯片为“大脑”,进行高效能的计算和加速;以网关处理器为“小脑”,实现不同功能区的互联和集成,以及异构网络中的数据处理;以MCU、感知芯片、联网芯片作为“脑干”,实现感知和实时任务处理。

此外,目前在大算力芯片研发上,我国在光电智能芯片领域有望与欧美一争高下。中国工程院院士、清华大学信息科学技术学院院长戴琼海表示,一旦光电智能计算得到应用,将对当代计算的速度、能量效率和数据通量产生变革性影响,可实现计算速度的成千倍提升、能效的百万倍提升。“改用光电智能芯片,AlphaGo整体计算能耗将从1吨煤下降到1克。”戴琼海说。

(1太瓦时=1000吉瓦时=1000000兆瓦时=1000000000千瓦时——编者注)

上游新闻综合自 环球时报、每日经济新闻、文汇报、上观新闻、经济观察网等


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1