中新经纬6月21日电 (孙庆阳)生成式AI已取得突破,实现了从0到1的跨越。中信建投证券联合中新经纬研究院共同发布了《算力大时代,AI算力产业链全景梳理》,报告对生成式AI带来的算力需求做了上下游梳理,并做了交叉验证,可以看到以ChatGPT为代表的大模型训练和推理端均需要强大的算力支撑,产业链共振明显。
从报告内容来看,大模型仍处于混战阶段,应用处于渗透率早期,AI板块中算力需求增长的确定性较高,在未来两年时间内,算力板块都将处于高景气度阶段。
报告指出,自2022年底OpenAI正式推出ChatGPT后,用户量大幅增长,围绕ChatGPT相关的应用层出不穷,其通用性能力帮助人类在文字等工作上节省了大量时间。同时在Transformer新架构下,多模态大模型也取得新的突破,文生图、文生视频等功能不断完善,并在广告、游戏等领域取得不错的进展。生成式AI将是未来几年最重要的生产力工具,并深刻改变各个产业环节,围绕生成式AI,无论是训练还是推理端,算力需求都将有望爆发式增长。
首先是训练侧,参考OpenAI论文,大模型训练侧算力需求=训练所需要的token(最小单位)数量*6*大模型参数量。可以看到从GPT3.5到GPT4,模型效果越来越好,模型也越来越大,训练所需要的token数量和参数量均大幅增长,相应的训练算力需求也大幅增长。并且,与GPT4相关的公开论文也比较少,各家巨头向GPT4迈进的时候,需要更多方向上的探索,也将带来更多的训练侧算力需求。其次是推理侧,单个token的推理过程整体运算量为2*大模型参数量,因此大模型推理侧每日算力需求=每日调用大模型次数*每人平均查询Token数量*2*大模型参数量,仅以Google搜索引擎为例,每年调用次数至少超过2万亿,一旦和大模型结合,其AI算力需求将十分可观。另外,人工智能算力需求有望推动海底数据中心规模化发展。
报告推算,2023年-2027年,全球大模型训练端峰值算力需求量的年复合增长率有望达到78.0%,2023年全球大模型训练端所需全部算力换算成的A100芯片总量可能超过200万张。全球大模型云端推理的峰值算力需求量的年复合增长率有望高达113%。
算力产业链价值放量顺序为:先进制程制造->以Chiplet为代表的2.5D/3D封装、HBM->AI芯片->板卡组装->交换机->光模块->液冷->AI服务器->IDC出租运维。
报告认为,全球AI服务器市场规模未来3年内将保持高速增长,2022年中国AI服务器市场规模67亿美元,同比增长24%。2023-2025年,中国AI服务器市场规模有望达到134/307/561亿美元,同比增长101%/128%/83%。AI服务器是算力基础设施最主要的硬件,训练型主要成本来自于GPU芯片。竞争格局方面,考虑到AI服务器研发和投入上需要更充足的资金及技术支持,国内市场的竞争格局预计将继续向头部集中,保持一超多强的竞争格局。