当前位置:首页|资讯|ChatGPT|医疗|AI大模型

科技云报道:“吞金兽”ChatGPT背后:AI算力告急!

作者:科技云报道发布时间:2023-03-08

原标题:科技云报道:“吞金兽”ChatGPT背后:AI算力告急!

科技云报道原创。

近两个月来,全世界的网友们都在兴致勃勃的“调教”ChatGPT,但第一个受不了的却是ChatGPT的所有者。

为了更长远的发展,OpenAI宣布了付费订阅版ChatGPT Plus,每月收费20美元。

虽然OpenAI表示,将持续提供免费版,并且收费项目也将更好的“帮助尽可能多的人使用免费服务”。但是《纽约时报》也指出“在高峰时段,免费版访问人数将受到限制。”

显然,收费会是ChatGPT这类AI服务长久发展的必然选择。

究其根源,在于ChatGPT“越来越聪明”的背后,需要庞大的费用支撑。其中,算力成本是最重要的,也是最不能偷工减料的一部分。

那么,ChatGPT到底需要多少算力来支撑?

“吞金兽”ChatGPT的算力消耗

ChatGPT对算力的消耗可以分为三个主要场景:

一是模型预训练过程,这是ChatGPT消耗算力的最主要场景。

ChatGPT采用预训练语言模型,在Transformer的模型架构下,语言预训练过程可以根据上下文一次处理所有输入,实现大规模并行计算。

通过堆叠多个解码模块,模型的层数规模也会随着提升,可承载的参数量同步增长。与之相对应的,模型训练所需要消耗的算力也就越大。

据OpenAI团队发表于2020年的论文《Language Models are Few-Shot Learners》,训练一次1746亿参数的 GPT-3模型需要的算力约为3640 PFlop/s-day。

即假如每秒计算一千万亿次,也需要计算3640天。

考虑到ChatGPT训练所用的模型是基于GPT-3.5模型微调而来,GPT-3.5模型增加了参数量和训练样本量,包含超过1746亿个参数,那么预估训练一次ChatGPT所需算力至少需要约3640 PFlop/s-day的算力。

东吴证券研报分析认为,ChatGPT的优化主要来自模型的增大,以及因此带来的算力增加。

GPT、GPT-2和GPT-3的参数量从1.17亿增加到1750亿,预训练数据量从5GB增加到45TB,其中GPT-3训练单次的成本就高达460万美元。

同时,模型开发过程很难一次取得成功,整个开发阶段可能需要进行多次预训练过程,因此对于算力的需求是持续的。

此外,从基础大模型向特定场景迁移的过程,如基于ChatGPT构建医疗AI大模型,需要使用特定领域数据进行模型二次训练,同样会增加训练算力需求。

二是模型迭代过程。

从模型迭代的角度来看,ChatGPT模型并不是静态的,而是需要不断进行模型调优,以确保模型处于最佳应用状态。

这一过程中,一方面是需要开发者对模型参数进行调整,确保输出内容不是有害和失真的;另一方面,需要基于用户反馈和PPO策略,对模型进行大规模或小规模的迭代训练。

因此,模型调优同样会为ChatGPT带来算力成本,具体算力需求和成本金额取决于模型的迭代速度。

三是日常运营过程。

在日常运营过程中,用户交互带来的数据处理需求同样也是一笔不小的算力开支。考虑到ChatGPT面向全球大众用户,用的人越多,带宽消耗越大,服务器成本只会更高。

据SimilarWeb数据,2023年1月ChatGPT官网总访问量为6.16亿次。

据Fortune杂志,每次用户与ChatGPT互动,产生的算力云服务成本约0.01美元。

基于此,ChatGPT单月运营对应成本约616万美元。

据上文,我们已知训练一次1746亿参数的GPT-3模型需要3640 PFlop/s-day的算力及460万美元的成本,假设单位算力成本固定,测算ChatGPT单月运营所需算力约 4874.4PFlop/s-day。

直观对比,如果使用总投资30.2亿、算力500P的数据中心来支撑ChatGPT的运行,至少需要7-8个这样的数据中心,基础设施的投入都是以百亿记的。

当然,基础设施可以通过租用的方式来解决,但算力需求带来的本压力依然巨大。

随着国内外厂商相继入局研发类似大模型,将进一步加大对算力的需求。

AI算力霸权时代的到来

模型算力需求增速超越芯片性能增速,算力霸权时代或将到来。

据OpenAI测算,自2012年以来,全球头部AI模型训练算力需求3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍。

而摩尔定律认为,芯片计算性能大约每18-24个月翻一番。

数据显示,从2012年到2018年,训练AI所耗费的算力增长了30万倍,而摩尔定律在相同时间只有7倍的增长。

因此,AI训练模型算力需求增长与芯片计算性能增长之间的不匹配,或将带来对算力基础设施供给需求的快速增长。

考虑到算力对于AI模型训练效果的关键性作用,拥有更丰富算力资源的模型开发者,或将能够训练出更优秀的AI模型。

所以现在有一种说法:AI进入了新的算力霸权时代,大家要用千倍、万倍的算力才能训练出世界上最好的算法。

那么无论是谁参与进来,都需要回答一个问题:算力成本怎么解决?

在中国,这个答案就藏在国家如火如荼推进的“东数西算”工程里。

数据显示,我国算力产业规模快速增长,近五年平均增速超过30%,算力规模排名全球第二。

但在发展的过程中仍面临人均算力尚低、算力随需处理的需求难以满足、算力应用广度和深度不够等问题。

因此,国家“东数西算”工程通过构建全国一体化的新型算力网络,优化数据中心建设布局,将东部算力需求有序引导到西部,利用西部的资源优势,为数字中国的发展提供低碳、低成本的优质算力。

对于AI产业来说,“东数西算”也可以成为“东数西训”,即庞大的训练算力需求完全可以转移到算力成本更低,同时规模更具优势的西部数据中心中进行。

对应的,这些承载智能训练的数据中心本身,也将为更好的适应智能训练需求进行针对性改造,比如在能源供给、散热结构、机柜形态等方面更适合使用了大量智能训练芯片的服务器等。

这也为数据中心未来发展提出了新的思路。

数据中心建设将告别千篇一律的通用时代,进入以场景为指引、以应用为导向的“专用”时代,“东数西训”、“东数西渲”、“东数西存”等应用将成为主流方向。

目前,我国算力产业仍在高速增长。

据IDC与浪潮信息联合发布的《2022-2023中国人工智能计算力发展评估报告》显示,相较于2020年我国135EFLOPS的算力总规模,2022年我国智能算力规模近乎翻倍,达到268EFLOPS,超过通用算力规模;预计未来5年我国智能算力规模的年复合增长率将达52.3%。

未来,我国还应在算力方面进一步加强超算中心、智算中心和边缘数据中心建设,不断满足政府、行业、企业甚至个人等多样化的智能场景需要,以算力赋能智慧城市、智慧医疗、智慧农业等千行百业的高质量发展。

不仅如此,大力加强自主可控高端芯片生产能力,争取在量子芯片领域实现换道超车,加强算力人才培养,同样是保持我国AI算力领先的重要手段。

【关于科技云报道】

专注于原创的企业级内容行家——科技云报道。成立于2015年,是前沿企业级IT领域Top10媒体。获工信部权威认可,可信云、全球云计算大会官方指定传播媒体之一。深入原创报道云计算、大数据、人工智能、区块链等领域。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1