随着ChatGPT火了,妖魔鬼怪也出来了,包括吹牛不上税的卖方分析师,以及瞎蹭概念的公司等。在之前的文章里我就说过:现在的ChatGPT充其量就是个段子狗,虽然代表了未来,但还没到“颠覆一切”的地步:
AI产业链中的稀缺环节是数据、算力、行业know-how。
这里我要着重聊一聊算力。没有NB的硬件基础设施支持,AI永远只能停留在打嘴炮上。
ChatGPT为什么强?
大模型是主要因素之一。通俗理解大模型,你可以想象为一个脑容量更大、思维更复杂的生物,就像人脑,因为有上亿个参数(ChatGPT有1750亿个),所以能够处理更复杂的任务。
世界是复杂的,不是一个1+1必然等于2的世界。举个例子:妈和女朋友掉入水里,你先救谁?这得看情况:水浅不浅?你妈会不会游泳?身边有没有其他人?这个水是什么水,海或湖泊?……在复杂情境下,根本没有一个统一的答案。
而喷子的思维是非黑即白的,比如下图这位仁兄说的:非黑即白就是要么全盘肯定,要么全盘否定。
为什么?因为喷子的脑子是小模型,参数量少,结构简单,当然这种模型不需要太多算力(也就是喷子说话一般不经过脑子),自然容易张口就来。但这样的模型是无法适应复杂社会的,就拿管理来说,这么一个单线程思维方式的喷子,你让他来做管理?不把你管倒闭就谢天谢地了。管理是一个复杂情境,同样两个员工在吵架,今天吵和明天吵,处理的方式就不一样,只有愿意思考、脑袋里有“大模型”的人才能胜任。
所以大模型是AI发展的必然趋势。
而大模型必然要求更高级、更快的算力,所以ChatGPT带火了人工智能后,算力具备确定性。
谷歌已明确表示正在开发一项名为Bard的对话式人工智能服务项目,百度正式宣布了大模型项目“文心一言”,360计划推出类ChatGPT技术的Demo版产品,阿里宣布正研发“阿里版 ChatGPT”,各大巨头纷纷参与其中,这些大佬们都要花钱升级算力,甚至形成算力层面的军备竞赛。
算力的发展前景
从2012年开始,AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻倍,至2018年AI计算量扩大了30万倍。综合来看,ChatGPT所用的Transformer模型,训练运算量每2年提升750倍,而据摩尔定律,硬件算力提升速度每2年只有2倍,根本赶不上“人工智能竞赛”的需求。
如果不升级算力行不行呢?
使用单个Tesla架构的V100 GPU对GPT-3模型进行一次训练,需要用288年时间。如果以每秒1万亿的速度训练1次ChatGPT,需要耗时27.5天。光是维护这个算力,ChatGPT单月成本是616万美元(4200万人民币/月)!
所以,算力会成为这一轮AI大发展的关键和瓶颈。
2022-2026,我国AI算力复合增速为47.5%。
GPU:大脑核心
第一个确定的是GPU。可以这么理解:CPU是放在主板上的逻辑芯片,而GPU则是放在显卡上的,两者应用场景不同,但地位一样,都是核心“大脑”。GPU的出现让我们玩得起3A大作,使显卡减少了对CPU的依赖,而GPU现在的使用场景也不局限于图像处理。
上图红筐部分是计算单元,可以看出:CPU(右图)需要很强的通用性来处理各种不同的数据类型,同时又要逻辑判断又会引入大量的分支跳转和中断的处理,所以CPU的计算能力要求没那么高;GPU(左图)只有非常简单的控制逻辑并省去了Cache,所以能空出大量空间专注于计算能力。
2021年全球GPU行业市场规模为334.7亿美元,预计2030年将达到4773.7亿美元,CAGR将达34.4%。2020年中国市场规模47.39亿美元,预计2027年市场规模将达345.57亿美元,CAGR为32.8%。
服务器
AI服务器就是集成多个AI GPU,以加速深度学习算法的设备。
以浪潮信息目前算力最强的服务器NF5688M6为例。前面提到“使用单个Tesla架构的V100 GPU对GPT-3模型进行一次训练,需要用288年时间。如果以每秒1万亿的速度训练1次ChatGPT,需要耗时27.5天”,若由单台NF5688M6服务器进行计算,只需5.5天。若使用商汤智算中心全部算力,可在11分钟完成一次ChatGPT模型训练。
2021年全球AI服务器市场规模为156亿美元,预计到2025年将达到318亿美元,CAGR将达19.5%。2021年中国AI服务器行业市场规模为350.3亿元,22-25年CAGR将达19.0%。
算力网络
既然大规模算力中心的建设,对单家公司来说负担太大,那么能不能把全国的算力都利用起来?这就是算力网络,是数字化时代的资源网,是以计算为核心,通过网络实现连接,通过感知实现匹配与调度的服务。
“东数西算”就是对算力网络的初步探索:东部地区经济发达,产生的数据多,计算需求也多,而西部地区成本低,可否通过算力网络这一基础设施,解决东部地区乃至全国的计算需求问题?
目前,算力网络还处于初级探索阶段,由电信运营商牵头,整合各类服务商共同建设。运营商提供基础资源,其他合作伙伴提供各项具体的技术支持与场景落地,最终形成能够随处取用,且能根据需求调度算力的智能网络。
相关企业梳理
综上所述,我的逻辑是:大模型是趋势,因此算力需求必然暴涨,算力成为人工智能竞赛中最稀缺的战略性资源。而算力的核心关键,也是最稀缺的领域,是GPU;而AI服务器、算力网络等,则是可以将GPU充分利用,从而结构性提高算力的方法。
GPU方面,全球龙头必然是英伟达,这是不争的事实。从国产化率看,景嘉微似乎走在前面。此外,部分卖方分析师还提到寒武纪、海光信息、龙芯中科、中国长城,姑且也在这里记录一下。
AI服务器方面,龙头是浪潮信息,商汤,因已经具备算力中心,也算是稀缺标的。算力网络方面,目前还处于初级阶段,算是国家牵头的一项基础设施建设工程,当前产业化似乎并不成熟,如果非要关注,可以从三大运营商入手。(作者:投资林教头)