今天分享的是AIGC系列深度研究报告:《AIGC专题:AIGC算力全景与趋势报告》。
(报告出品方:量子位智库)
报告共计:41页
海量/完整电子版/报告下载方式:公众号《人工智能学派》
2023年无疑是AIGC元年,ChatGPT引发的各类大模型竞赛中,行业内绕不开的一个话题便是算力从何而来。
算力目前已经在AIGC产业内形成新共识--算力成为AIGC发展的关键基石。随着英伟达今年一系列不断推陈出新的产品动作,可以看到国际上最先进的算力厂商如今已迈向由超级芯片组成的算力集群阶段。
此外,算力厂商也无疑成为AIGC产业下的率先受益方。然而,随着大型参数的不断增长,OpenAl近期表明算力成为其发展的挑战之一。在AIGC产业繁荣的当下,可以预见的是未来对算力的需求会越来越大。那么,在这场AIGC盛宴中,应该如何应对当下面临的「算力危机」呢?
OpenAI发布ChatGPT属于GPT系列中的聊天机器人模型。GPT系列中,GPT3是由1750亿参数组成的语言模型,而GPT4的参数更是达万亿级别。国内目前公布的大模型 参数规模也普遍在百亿至千亿级别。如此庞大的参数规模,对于芯片提供商、云服务厂商以及服务器厂商都产生了新需求。 全球范围内,GPT具备从底层改变各行业规则的能力,作为AIGC产业的基建,算力产业在未来有望成为一项公共服务渗透入各行各业。基于此,智算中心作为公共算力 基础设施,成为AIGC基建中的关键环节。
• 需求:当前大模型参数量在百亿至千亿参数规模,在训练阶段,对芯片的需求从CPU+加速器转变为以GPU主导的大规模并行计算。未来,当多数大模型参数规模到达万亿级 别,将产生更大的算力需求。在单芯片性能之上,智算中心能够通过算力的生产-调度-聚合-释放,支持AI产业化发展。
• 缺口:目前市场对于英伟达芯片的需求远大于供给。经测算,一万枚英伟达A100芯片是做好AI大模型的算力门槛。国内具备此量级的公司最多只有1家,而GPU芯片持有量超过一万枚的企业不超过5家。
• 现状:AIGC产业的发展将加剧AI服务器行业的增长速度,国产服务器厂商普遍业务增量在30%以上;国内市场中,服务器重新进入洗牌期。
• 需求趋势:由于AIGC对于高性能计算的需求,云厂商在服务器的选择上以AI服务器为主。据IDC数据,2025年全球AI服务器市场规模将达317.9亿美元,年复合增长率为19%。 英伟达GPU短期内面临产能不足问题,或将一定程度上限制AI服务器生产,从而影响出货量。
• 范式转变:MaaS成为云计算服务的新范式,云计算判别标准从算力能力转向「云智一体」的AI产品能力。
• 成本
自研芯片:根据 IDC 2018年服务器成本结构数据显示,高性能服务器中,芯片成本占比高达 50%~83%;全球头部云厂商(谷歌、微软、腾讯等)为摆脱过于依赖芯片 厂商的局面,均加大芯片自研力度。
报告共计:41页
海量/完整电子版/报告下载方式:公众号《人工智能学派》