“这几天电话都快被打爆了。”聊起最近爆火的ChatGPT,英伟达中国区一位高管日前向媒体说道。
春节过后,全球AI领域最引人关注的非聊天机器人ChatGPT莫属。
在资本和舆论的吹捧下,拥有交流、创作、翻译等多种功能的ChatGPT,俨然已成为一个现象级产品。不仅背后的OpenAI和微软借此名声大噪,国内一众高调跟进的互联网大厂也赚足了眼球。
但实际上,在网友们褒贬不一,对ChatGPT持续展开讨论的同时,支撑ChatGPT诞生的算力基础——AI芯片和服务器也正在资本市场上掀起巨浪,已下跌一年的英伟达,股价在4个月里实现翻倍。
英伟达CEO黄仁勋
在国内,股市上的热情似乎更胜一筹。国产GPU厂商景嘉微股价一个月涨超60%,即便已经公开表示没有ChatGPT相关业务,依然挡不住股价的涨势,让高管们不趁机减持都不好意思。
算力,是人工智能的“三驾马车”之一,跟着ChatGPT备受追捧无可厚非。但值得关注的是,打造ChatGPT到底需要消耗多少算力?资本市场狂欢下,国内厂商又能在多大程度上受益?
在接受观察者网采访时,国内服务器厂商宁畅副总裁兼CTO赵雷指出,就ChatGPT而言,需要TB级的运算训练库,甚至是P-Flops级的算力。从目前的服务器处理能力来看,大概是几十到几百台规模的GPU服务器体量才能够实现,而且需要几日甚至几十日的训练。
市场上有券商报告称,ChatGPT带动超算算力需求3年或将提升超过10倍,未来3年或将拉动千亿级ICT硬件投资需求。随着ChatGPT的持续爆火,英伟达真的会成为最大赢家吗?
在ChatGPT爆火出圈之前,黄仁勋最头疼的事应该还是怎么更快度过本轮“显卡寒冬”。
刚刚过去的2022年,全球独显出货量创下二十年新低,相比2021年“腰斩”。作为全球显卡市场的头号玩家,英伟达持续遭受重创,业绩连续两个季度下滑,股价一年之内暴跌70%。
但ChatGPT现象级爆火很快扭转了这一颓势。去年10月中旬以来,英伟达股价从108美元/股暴涨至228美元/股,反弹111%,市值重登美股半导体板块第一,大幅甩开英特尔等同行。
“我们一直在等待这一刻,”看到英伟达股价在市场低迷下逆势暴涨,黄仁勋对ChatGPT的赞美也毫不吝啬,直言ChatGPT对于人工智能的意义,不亚于手机领域“iPhone”的出现。
英伟达CEO黄仁勋
市场好奇的是,那么多芯片公司,为什么偏偏英伟达的股价会随着ChatGPT翩翩起舞?
简言之,就是ChatGPT的底层基础是一个拥有1750亿参数的预训练大模型——GPT-3.5,它能如此睿智,主要是基于对天量数据的“吃透”,背后离不开强大算力的支撑,而英伟达的GPU能提供它需要的算力。
目前来看,全球其他正在跟进的厂商想要推出ChatGPT这种人工智能大模型,必须有三项关键技术支撑:训练数据、模型算法和算力。
浙商证券研报指出,训练数据市场广阔,技术壁垒较低,投入足够的人力物力及财力后即可获得;基础模型及模型调优对算力的需求较低,但获得ChatGPT功能需要在基础模型上进行大规模预训练,这就需要大量算力,所以算力是ChatGPT运行的关键所在。
说起AI算力,就到了GPU的主场。
最初,英伟达基于CUDA架构开发的GPU主要用于游戏,后来发现它还可用于AI训练和推理中的大规模并行计算任务,逐渐形成开发者生态。在AI发展初期,市面上没有专门的AI加速卡和硬件产品,开发者便将英伟达GPU用于AI训练和推理,开始大规模采用其产品。
CPU和GPU架构的区别
“英伟达芯片为大模型训练做了很多优化,它才是这次ChatGPT热潮的最大赢家。”有业内人士直言。
那训练ChatGPT到底需要多少算力?
海通证券援引的OpenAI测算显示,自2012年起,全球头部AI模型训练算力需求每3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍,而ChatGPT训练阶段总算力消耗约为3640PF-days(即1 PetaFLOP/s效率跑3640天)。
在接受观察者网采访时,宁畅CTO赵雷提到,目前用户使用ChatGPT得到的反馈,是训练后的产物,主要涉及推理应用,计算时间基本上是分钟级或者秒级的。对于ChatGPT训练来说,一般是周级或是月级,至少差一个数量级,也有可能差两到三个数量级。
浙商证券研报指出,采购一片英伟达顶级GPU成本为8万元,GPU服务器成本通常超过40万元。对于ChatGPT而言,支撑其算力基础设施至少需要上万颗英伟达GPU A100(曾经风靡一时的AlphaGO也只需要8块GPU),一次模型训练成本超过1200万美元。
在此背景下,英伟达、AMD等可提供AI算力芯片的公司,股价也开始在半导体下行周期中逆势上涨。就在日前,英伟达中国区高管在接受采访时提到,“这几天好多公司,包括云从科技,都来找我安排调货,根本就调不过来,需求特别大。”
观察者网就相关事宜联系云从科技投资者关系部,对方工作人员回应表示:采购信息只能以公告为准。不过他补充称,云从科技已和华为、寒武纪等国内厂商完成深度适配,而且以前也准备了一些库存,国际芯片供应不会对该公司造成明显影响。
市场上有业内人士测算,未来GPT-4可能会达到100万亿个参数,在不使用英伟达H100 GPU或优化架构的情况下,单日访问算力需要6万台A100,仅给英伟达的算力投入就是120亿美元。
“有没有ChatGPT这个东西,人工智能算力都是永远都不够的。”赵雷向观察者网坦言,元宇宙到现在还没有一线的3A大作游戏画面和互动性好,所以目前市场上的算力还差得远,未来5到10年,至少100倍的算力提升还是需要的。
据《2022-2023中国人工智能计算力发展评估报告》统计,2022年我国人工智能算力规模已达268百亿亿次/秒(EFLOPS),超过通用算力规模,预计未来5年,中国智能算力规模年复合增长率将达52.3%。
但具体厂商能在多大程度上受益,似乎仍值得观察。近日有台湾岛内行业人士透 露,英伟达并没有因为ChatGPT在台积电加投先进工艺的4nm芯片,市场都过度乐观了。
自ChatGPT爆火以来,国内大厂纷纷跟进,这也点燃了A股的算力基础设施概念,浪潮信息、神州数码、华胜天成等服务器产业链公司连日大涨,甚至浪潮信息还收到了深交所的关注函。
作为国内专注人工智能赛道的服务器厂商,宁畅虽然没有上市,但凭借与英特尔、英伟达的联手合作,在这轮ChatGPT热潮中也受到市场关注。
宁畅CTO赵雷告诉观察者网,ChatGPT的持续爆火为AIGC带来全新增量,行业对AI模型训练所需要的算力支持提出了更高要求,也为宁畅带来更多市场空间和发展机会。
根据IDC报告,2021年中国AI服务器市场规模达350.3亿元,同比增长68.6%,浪潮信息、宁畅、新华三、华为和安擎等位居前五,占据82.6%的份额。在全球AI服务器市场上,浪潮以20.9%的份额位居第一。
图源:IDC
但服务器只是整机,国内AI产业要想自主发展,最关键的还是在核心芯片上掌握主动权。
一组第三方数据显示,中国加速服务器市场近年来不断壮大,2021年规模达53.9亿美元,GPU服务器占绝对主导。其中,加速卡的采购型号主要集中在英伟达的T4、V100、V100S以及A100系列上,外加少量的AMD与英特尔。
IDC的数据凸显了英伟达的主导地位:2021年中国加速卡数量出货超过80万片,其中英伟达占据超过80%的市场份额。
去年9月,英伟达被限制向中国供货A100和H100 GPU的消息引发业内广泛关注。虽然英伟达积极争取许可,并提供低配版产品,但这也再次给国内产业界敲响了警钟。
观察者网注意到,在这轮ChatGPT爆火中,A股也有不少芯片股随之大涨,但炒作意味浓厚。
例如,国产GPU厂商景嘉微曾同时透露“产品未涉及AI训练与ChatGPT相关业务”和“JM9系列图形处理芯片可用于人工智能计算领域”两则消息。在市场难以分辨的情况下,景嘉微股价在一个月里大涨超过60%,随后高管很快披露了减持公告。
深交所互动易截图
但也有一些上市公司明确表示拥有类GPU芯片业务。
例如,海光信息在招股书中透露,该公司DCU(协处理器)系列产品以GPGPU架构为基础,可广泛应用于大数据处理、人工智能、商业计算等应用领域。自1月中旬以来,海光信息股价累计涨近30%。
此外近几年在市场上连续大额融资的初创公司,像天数智芯、壁仞科技、摩尔线程等公司,也都推出了自研的通用GPU产品。例如,去年8月壁仞科技发布首款7nm制程的通用GPU芯片BR100,称其可与英伟达的旗舰H100一较高下,但尚未量产上市。
英伟达的“霸权”之下,这些新创公司的产品要想在市场上打开局面,一方面要解决性能和生态适配问题,甚至要反向适配英伟达的生态,另一方面要寄望于国内芯片制造的突破。以在芯片量产方面走在同行前列的天数智芯为例,2022年底销售订单为3亿元,与数十亿的融资相比仍差距显著。
除了GPU,CPU、ASIC(专用集成电路)和FPGA(现场可编程门阵列)等芯片被视为也可为AI不同计算任务提供算力,例如寒武纪就推出了一系列ASIC加速芯片,华为也设计了昇腾310和昇腾910系列ASIC芯片,但ASIC芯片通常针对AI应用专门设计了特定架构,通用性不如GPU。
图源:浙商证券
谈到高端算力芯片的市场竞争,海光信息在招股书中指出,在通用处理器领域,英特尔、AMD的CPU产品在全球市场中占据绝对优势地位;在协处理器领域,英伟达、AMD的GPGPU产品占据绝对优势地位。总体上国内厂商的市场份额与国际龙头企业相比差距较大,面临着该领域激烈的市场竞争。
“今天芯片产业面临的问题不是科研问题,更不是资本运作的问题,而是在成熟的产业生态体系里,我们没有占到核心关键点,更没有核心掌控力。”海银资本创始合伙人王煜全称。
他号召,在系统芯片异构计算时代,芯片企业、人工智能企业和产生大量数据的应用企业,这三方要深度合作,“这样芯片的制造水平未必是最好,但芯片训练的模型是最好的”。
“虽然英伟达占据先发优势,但其他的厂商也在迎头赶上。”还有业内人士指出,对ChatGPT这类大模型训练,包括商业巨头和头部的研发机构都有持续在投入,像国内的百度、智源、华为、阿里等,其投入规模至今应该超百亿,主要是数据、硬件和人才的持续投入,可预知的是还有很长的路要走,大模型应用正处于行业爆发的前夜,可以拭目以待。
本文来自微信公众号“观网财经”(ID:tiequanhe),作者:吕栋,36氪经授权发布。