当前位置:首页|资讯|人工智能|ChatGPT

技经观察丨从前沿技术入手,破解AI能源资源困局

作者:全球技术地图发布时间:2023-07-13

原标题:技经观察丨从前沿技术入手,破解AI能源资源困局

当前,以人工智能为代表的前沿技术加速向各行各业渗透,成为新征程上经济发展的助推器。自去年底ChatGPT推出后,其强大功能引发一场人工智能(AI)推广和应用的热潮,全球众多机构相继推出类似产品。由此引发的高能耗问题也随之引起热议。若要解决能耗问题,任何在现有技术和架构基础上的优化措施都将是扬汤止沸,前沿技术的突破或是破解此困局的终极方案。

一、AI火爆致能源资源消耗剧增

生成式AI强大功能的背后,是研究者们对人工智能算法、算力追求的不断提升。在这个过程中,对摩尔定律的实现也一步步走向极致。这种追求的负面效应正在显露,数据中心、芯片等人工智能基础设施的能源和水资源消耗呈现激增态势。

一方面,AI数据中心成为水电消耗大户。数据中心是AI重要基础设施。一个超大型数据中心每年耗电量近亿度,生成式AI的发展使数据中心能耗进一步增加。基于大模型的AI使用云计算,依靠数据中心完成模型训练。数据中心服务器多数使用图形处理单元(GPU),大型模型往往需要数万个GPU,训练周期短则几周,长则数月,过程需要大量电力支撑。数据显示,OpenAI训练GPT-3耗电为1.287吉瓦时,大约相当于120个美国家庭1年的用电量。并且,这仅仅是训练AI模型的前期电力,仅占模型实际使用时所消耗电力的40%。2023年1月,OpenAI仅一个月已耗用可能等同17.5万个丹麦家庭的全年用电量。谷歌AI每年耗电量达2.3太瓦时,相当于亚特兰大所有家庭1年用电量。

数据中心服务器运行还会产生大量热能,水冷是服务器最普遍的方法,这使其水耗巨大。有数据显示,GPT-3在训练期间耗用近700吨水,其后每回答20-50个问题,就需消耗500毫升水。弗吉尼亚理工大学研究指出,数据中心每天平均必须耗费401吨水进行冷却,约合10万个家庭用水量。2022年,Meta有五分之一的数据中心出现“水源吃紧”。

另一方面,AI另一个重要基础设施芯片,其制造过程也是一个大量消耗能源和水资源的过程。能源方面,芯片制造过程需要大量电力,尤其是先进制程芯片。光刻是最耗电环节,极紫外光刻机(EUV)光源能源转换效率只有0.02%左右。据彭博社报道,ASML当前每台EUV的额定耗电量约为100万瓦,是上一代产品的10倍左右。台积电目前有超过80台EUV,所耗电力可以想象。随着2nm、3nm产线投产,能耗将进一步增加。国际环保机构绿色和平东亚分部《消费电子供应链电力消耗及碳排放预测》报告对东亚地区三星电子、台积电等13家头部电子制造企业碳排放量研究后称,电子制造业特别是半导体行业碳排放量正在飙升,至2030年全球半导体行业用电量将飙升至237太瓦时。 水资源消耗方面,硅片工艺需要“超纯水”清洗,且芯片制程越高,耗水越多。生产一个2克重的计算机芯片,大约需要32公斤水。制造8寸晶圆,每小时耗水约250吨,12英寸晶圆则可达500吨。台积电每年晶圆产能约3000万片,芯片生产耗水约8000万吨左右。充足的水资源已成为芯片业发展的必要条件。2023年7月,日本经济产业省决定建立新制度,向半导体工厂供应工业用水的设施建设提供补贴,以确保半导体生产所需的工业用水。长期来看,生成式AI、无人驾驶等推广应用将导致芯片制造业进一步增长,随之而来的将是能源资源的大量消耗。

二、AI降耗面临摩尔定律下的技术局限

功耗是当前AI系统的重要软肋之一,也是难以解决的“基因缺陷”。当前的人工智能是基于摩尔定律的算力及基于人工神经网络的算法的综合创新。从算法看,人工神经元或节点处理和传输信息,多层级联的神经元相互连接组成“人工神经网络”,由“人工神经网络”使用数学算法和训练方法进行计算、学习,并预测或决策。算法十分复杂,且无法记忆,需要动辄数十亿参数和大量时间来训练一个模型。这就导致基于人工神经网络的AI方案必须依赖于大算力的数据中心。从硬件来看,冯·诺依曼架构的计算单元与存储单元分置,之间用数据总线连接,运算过程需要使数据在处理器与存储器之间进行频繁迁移,功耗极为巨大。

按照当前的技术路线和发展模式,AI进步将引发两个问题: 一方面,数据中心的规模将会越来越庞大,其功耗也随之水涨船高,且运行越来越缓慢。据科技日报报道,我国数据中心总机架数2022年突破400万,中心总能耗在2020年至2021年间突破2000亿千瓦时,2023年将突破2500亿千瓦时。 另一方面,AI芯片朝高算力、高集成方向演进,依靠制程工艺来支撑峰值算力的增长,制程越来越先进,其功耗和水耗也越来越大。并且,受摩尔定律约束,传统计算能力已接近极限,面临冯·诺依曼架构瓶颈、物理微缩的挑战。这两个问题都将导致AI的能源和水资源消耗问题愈加严重。

三、技术仍然是终极解决方案

科技带来的能源资源消耗问题,依然只能从技术层面来根本性地解决。

一方面,后摩尔时代的AI进步,需要找到新的、更可信的范例和方法。人工神经网络实现智能的方式其实并不是人类大脑感知自然世界的方式,相比之下,人脑可以毫不费力地完成大部分学习。研究人员正在探索新的途径和创新方法。

另一方面,找到新的能源资源解决方案。氢能和核能被视为最有前景的能源技术。

核聚变技术。核聚变发电技术因生产过程中基本不产生核废料,也没有碳排放污染,被认为是全球碳排放问题的最终解决方案之一。过去几十年里,热核融合研究形成了两大技术分支:一个是磁约束聚变,当前深入研究的主要是托卡马克装置,例如国际热核融合实验堆;另一个是惯性约束聚变。2022年12月5日,美国能源部劳伦斯利弗莫尔国家实验室宣布核聚变研究取得了重大突破,首次实现了“核聚变反应150%的净能量增益”,但该数值受到专家质疑。剑桥大学核能专家Tony Roulstone认为,实验的能量输出仅为最初发射激光所需能量的0.5%。在他和大多数专家看来,当前核聚变发电技术远未成熟。专家们普遍预期要到20年到30年之后才能实现商业化。2023年5月,微软与核聚变初创公司Helion Energy签订采购协议,成为该公司首家客户,将在2028年该公司建成全球首座核聚变发电厂时采购其电力。Helion的技术路线与目前常见的两大技术分支都不同。Helion的方案是脉冲非点火聚变系统。该公司称,此方法可使聚变装置变得更小,并使得根据需要调整输出功率成为可能。此次合作若成功,将是可控核聚变行业的一个重要里程碑,核聚变时代的到来将会大大提前。从当前情况看,这并非不可能。Helion最大的投资人,OpenAI CEO山姆·奥特曼已向Helion投资3.75亿美元,是其个人目前最大一笔投资,对该公司和技术的信心及期许由此可见一斑。

可持续制氢。各国均将发展氢能作为保障能源安全的重要措施之一,但目前仍主要从化石燃料甲烷中生产氢气,仍未摆脱化石能源固有的局限。人类需要找到新技术低成本、可持续制备氢气。密歇根大学的科学家开发了一种新型太阳能电池板,模仿自然光合作用的关键步骤,使用太阳光谱的较高能量部分来分解水,并使用光谱的较低部分来提供促进反应的热量。将水转化为氢气和氧气的效率达到9%,比同类太阳能水分解实验的效率高近10倍。同时,通过缩小半导体降低了可持续氢的成本,该项研究的“自愈半导体”可承受相当于160个太阳的聚光。接下来,研究小组将进一步提高转化效率,获得超高纯度氢气,使其可以直接进入燃料电池。相关知识产权已授权给NS Nanotech Inc.和NX Fuel Inc.。

尽管核聚变和可持续制氢等能源技术的突破可以在一定程度上解决能源短缺问题,但是,也无法使能源供应实现指数级增长,无法匹配AI对算力需求的指数级增长。因此,从根本上解决AI能耗问题的方案,仍然在于算法和硬件架构的突破。

不过,从长远来看,即便AI通过类脑计算实现了单位算力能耗的下降,核聚变及可持续氢等低碳能源技术的突破可以使AI发展不再受碳排放制约,对于AI发展仍然具有重大的支撑和推动意义。

四、启示

习近平总书记在2018年中央政治局第九次集体学习时强调,人工智能是引领新一轮科技革命和产业变革的战略性技术,具有溢出带动性很强的“头雁”效应。加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。超维计算与存内计算结合的新架构研究对于我国发展AI具有重大的现实意义。一方面,计算、硬件是人工智能的重要底座性技术。新的计算架构和算法创新将有助于我国摆脱传统计算底层技术依赖问题。另一方面,为我国AI可持续、低碳发展提供重要保障。此外,AI软硬件和能源技术的共同创新在解决能源资源消耗问题的同时,也将使AI进入到一个新的发展空间。

当前,世界正进入一个新的颠覆性技术爆发的时代。我国应紧抓当下前沿技术快速迭代的窗口期,进一步加强对新计算架构以及能源领域前沿技术探索的支持力度,对未来应用和人才进行超前部署。一是支持领先的学术机构、国家实验室开展相关研究,为应用提供理论基础和可行性论证;二是资助领先机构和企业进行实验、建造原型和验证理论概念;三是政府投资建立评估性能、可扩展性和可靠性的基础设施,作为实验平台向研究人员开放;鼓励民营企业、初创企业和技术领域的行业领袖共同合作开展创新。

参考文献:

1.Utilizing Hyperdimensional Computing for a More Robust and Efficient Machine Learning System,

3.DARPA seeks to improve AI at the military Edge with 'Hyper-Dimensional Data Enabled Neural Networks',By Sebastian Moss,https://www.datacenterdynamics.com/en/news/darpas-hyper-dimensional-data-enabled-neural-network-proposal-seeks-improve-ai-military-edge/

5.Helping robots remember: Hyperdimensional computing theory could change the way AI works,https://ece.umd.edu/release/helping-robots-remember-hyperdimensional-computing-theory-could-change-the-way-ai-works

6.“Projestor” Projected Memristor,https://www.zurich.ibm.com/erc-projestor/?mhsrc=ibmsearch_a&mhq=Hyperdimensional%20computation

10.Scientists Make Major Breakthrough In Sustainable Hydrogen Production,By Brian Westenhaus,https://oilprice.com/Energy/Energy-General/Scientists-Make-Major-Breakthrough-In-Sustainable-Hydrogen-Production.html

作者简介

侯晓轩 国务院发展研究中心国际技术经济研究所研究一室

研究方向:科技战略、产业政策

联系方式:houxiaoxuan@drciite.org

编辑丨郑实

研究所简介

国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。

地址:北京市海淀区小南庄20号楼A座

微信:iite_er


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1