在ChatGPT在全球快速走红之际,全民追赶GPT的盛况正在上演。
很多科技公司一头扎进了“百模大战”中,让人不禁想起昔日“百团(团购)大战”的盛景。
与此同时,科技巨头们还纷纷加码云计算赛道,瞄准AI底层算力建设。
“卖铲子”产业的黄金时代
市场普遍认为,ChatGPT横空出世,开启了AI发展的新时代。它的意义,正如当年iPhone问世,自此便迎来智能手机和移动互联网的黄金发展期。
正因如此,各公司纷纷跟进类ChatGPT方向,开启争夺“中国版Open AI”席位。
人人做大模型时代正在到来:不仅通用大模型如火如荼,各行各业的公司都在加码垂直的多模态大模型。难免让人联想到,在iPhone发布之后,智能机品牌百花齐放、争奇斗艳的格局演进。
毫无疑问,“AI的iPhone时刻”已至。值得深思的是,面对长长的AI 产业链,我们该关注哪一个环节的机遇。
复盘智能机浪潮,智能机品牌泥沙俱下,在激烈的厮杀下,诺基亚、HTC还有大大小小的牌子最终都陨落。但智能机带来的爆发性硬件性能(算力)需求,使得作为产业链上游的算力基础设施的台积电、三星成为冉冉升起的耀眼“新星”,最后还成为半导体和消费电子领域的“常青树”。
AI 浪潮与智能机浪潮有着不少相似之处,其中最重要的一点是二者都产生了巨大的新增算力需求。
尽管各个科技巨头具体实现的路径各异,但大方向一致,都需要在基础模型上进行大规模预训练。比如ChatGPT的能力来源于1750亿参数,中国版的ChatGPT也必然离不开千亿级的参数,背后对应的是需要极其强大的算力基础设施支撑。
民生证券曾估算,仅支持ChatGPT 3640PF-days算力,就需要投资约7-8个标准数据中心(按500P算力为例),若以国家先进计算产业创新(宜昌)中心项目投资额为参考,训练ChatGPT的成本约高达240亿元。除了训练外,推理及为客户服务亦需要大量的算力支持。
做AI大模型是在掘金,云计算服务商则是当中“卖铲子的人”。众所周知,“卖铲子的业务模式”在高景气的赛道中具备很高确定性,是“隐形冠军”频出的领域。
更值得注意的是,在ChatGPT热潮以前,"Computing hungry"(算力饥饿)问题就常常产生,已成为掣肘很多技术创新的主要问题——Computing hungry将导致效率危机和成本危机。尤其对于中国AI行业而言,高质量的算力比较稀缺且难以获得。算力基础设施毫无疑问将成为产业链的关键竞争环节。
此外,除了ChatGPT带来的潮流,多周期共振下云计算市场还正迎来更多的时代机遇。拉长时间周期来看,当前中国正处于第四次科技革命的阶段。第四次科技革命以大数据、人工智能为核心,推动中国经济转型升级。
国内数据要素改革、信创持续推进,叠加AIGC的浪潮,汇总而成的云计算算力需求或将进入爆发阶段,从而推动云计算市场进入黄金窗口期。这正是各科技巨头纷纷“抢滩”该领域的核心原因。
云计算进入下半场,竞争格局或将被AIGC搅动
近年来,云计算市场发生了一些关键性的变革,并开始迈入成长下半场。
在上一阶段,行业仍处于产业发展初期。在这一阶段,持续培育市场、形成产业规模化优势以及加速渗透是关键任务,凭借同质化的产品即可满足下游需求。因此云计算厂商纷纷通过以价换量的形式抢占市场,通过承担微薄利润换取表面的高市场份额,以形成领跑之势。可以说,此时行业竞争的本质是“价格战”。
随着时间的推移,“上云”、“用云”已成为企业IT基础设施建设的最广泛手段,也是进行数字化转型的必经之路。
眼下云计算行业逐步走向成熟,并过渡到新的阶段。不同于上一阶段,随着上云进程进入到深水区,上云业务的类型从企业的边缘业务为主,到核心业务比例持续提高。企业对云计算的核心诉求不再局限在节省IT成本,云安全性和高效敏捷成为关键。
在此背景下,使用单一云已经成为过去式,多云趋势才是未来;低价抢占市场的“价格战”已经成为过去式,“价值战”才是未来。
在新旧模式切换之际,昔日的竞争格局在改变,有能力的后进者崛起。数据可证明,无论是中美云计算市场的头部集中度都在下降。火山引擎总裁谭待此前曾向格隆汇透露:全球的CR1和CR3正在下降;中国更特殊一点,因为还有运营商,CR5也在下降。
AIGC的崛起和“百模大战”将加速这一进程。
在AI 2.0阶段,企业更在乎的是上云后能充分运用大数据和云计算的算力,大幅降低创新所需要的等待时间,产生真正的价值。
大模型参数量与数据量巨大,这意味着模型复杂程度很高,因此对云计算的技术水平与安全性提出了更高的要求。
行业下半场的关键是核心竞争力的比拼。这预示着行业竞争壁垒提升,并将导致同质化的局面正式终结,有竞争力的公司溢价能力有望提升。
在这一阶段,阿里、腾讯、字节、百度等互联网大厂不约而同地投入到AIGC浪潮中,并把云计算的重要性提到了新的高度。
阿里、百度直接发布AI大模型,并希望凭此获得更多的云计算市场份额。大模型的服务会通过自身的云计算对基础设施对外提供,意味着商业模式将从IaaS(基础设施即服务)变为MaaS(模型即服务)。此前被认为在云计算市场逐渐让出市场份额的百度智能云,就寄希望于借文心一言打一场漂亮翻身战。百度CEO李彦宏曾称,凭借文心一言的优势,百度智能云有可能成为云计算市场第一。
但并非所有的云计算厂商都希望通过打造一体化模式来竞争,也有一些专注于深挖云计算的价值,助力各行各业打造大模型。
最有代表就是字节跳动旗下的火山引擎。4月中下旬,火山引擎召开“2023火山引擎春季FORCE原动力大会”。在会上,火山引擎总裁谭待强调:“火山引擎不做大模型,要做好服务大模型客户的工作。”
这意味着火山引擎坚持走相对中立路线,更加专注于为下游企业提供独立的云计算服务。从商业化的角度来讲,火山引擎不会与下游客户构成竞争关系、存在利益冲突,更能保证数据安全;从技术的角度来看,火山引擎更好地可以集中精力打磨产品和平台。
在原动力大会上,火山引擎还展示了云技术、云服务和云场景方面的最新探索、应用与实践,在敏捷迭代、数据驱动、体验创新层面发布了新品。令人印象深刻的是,火山引擎坚持全栈自研,包括自研vswitch、自研分布式存储系统、自研mGPU、自研DPU等。
现场数据显示,火山引擎自研DPU(数据处理芯片Data Process Unit)的网络性能高达5000万pps转发能力、延迟低至20us。DPU被认为是继CPU和GPU之后的“第三颗主力芯片”。在当前AI大模型带来数据增幅大幅提升的大背景下,CPU性能的增速减缓,成本大幅增加,DPU能将基础设施虚拟化任务从CPU、GPU转移至DPU,使更多的CPU、GPU可用于业务计算,从而提高服务器和数据中心的效率。火山引擎总裁谭待称,大模型需要大算力,虚拟化会带来资源损耗,规模越大就损耗越多。预计未来3年内大规模的算力中心,都将形成“CPU+GPU+DPU”的混合算力结构,而自研DPU将成为AI 2.0时代算力基础设施的核心竞争力之一。
而在大模型训练云服务上,火山引擎通过支持万卡级大模型训练、微秒级延迟网络的新版机器学习平台,帮助客户以更低成本、更高效率开发出自己的大模型。
过去,云计算厂商更多担任的是“集成商”的角色,外采硬件、将软件与硬件打包提供给客户,做总包去抢夺名义的市场份额。尽管看起来收入体量很大、名义的市场份额表面看起来很高,但实际上技术含量低、壁垒低、市场竞争激烈、盈利能力差。集成商模式的技术实力远不能达到大模型的要求,自主研发的技术才能拥抱AI 2.0时代。
除了在技术优势显著,火山引擎还拥有经过验证,且普惠的生态。火山引擎为字节跳动提供云计算服务,其机器学习平台经过抖音在内的海量用户业务长期打磨,在业内达到领先水平。此外,火山引擎还与字节国内业务大规模并池。基于内外统一的云原生基础架构,抖音等业务的空闲计算资源可极速调度给火山引擎客户使用,离线业务资源分钟级调度10万核CPU,在线业务资源也可潮汐复用,弹性计算抢占式实例的价格最高可优惠80%以上。
在大模型时代,云计算厂商采用两条不一样的成长路径。哪条路径更成功,还需要时间证明。
从目前来看,尽管火山引擎进入市场的时间比较晚,但已开始有弯道超车的势头。据悉,国内已有数十家做大模型的企业,七成在火山引擎云上。火山引擎正成为AI大模型训练推理的“发动机”。
百花齐放才是春,泛“AI+”场景落地可期
关于大模型未来的发展,谭待认为,大模型不会一家独大,而会百花齐放。而国内很多科技公司投入到大模型建设中,他们有优秀的技术团队,也有丰富的行业知识和创新想法,但往往缺乏经过大规模场景实践的系统工程能力。火山引擎要做的就是为大模型客户提供高稳定性和高性价比的AI基础设施。“火山引擎自己是不做大模型的”,谭待如是说。
目前来看,随着类ChatGPT带来的算法突破,NLP能力上限会日益提升,新一轮基于内容生产的人工智能应用有望加速落地。类ChatGPT已对内容生产、办公协作、商业、智能驾驶、教育、传媒等不同领域产生影响,泛“AI+”应用场景一再被拓宽。
火山引擎很早就开始泛AI布局,公司的很多客户在火山引擎帮助下开启了“AI+”的升级。火山引擎在原动力大会上也提供了不少很有代表性的案例。
比如火山引擎与MiniMax达成深度合作。MiniMax拥有自研的文本到视觉(text to visual)、文本到语音(text to audio)、文本到文本(text to text)三大模态的基础模型架构的AI公司。在2022年10月,MiniMax推出主打社交的AI 聊天软件Glow,用户可以在Glow中创建“智能体”, 设定聊天对象的人物背景、性格、价值观等特征,并与之进行聊天互动。同时用户可以通过持续的对话,调整智能体的语气、说话风格等。
在大会上,MiniMax联合创始人杨斌透露,MiniMax与火山引擎合作建立了超大规模实验平台,实现千卡级常态化训练;超大规模推理平台有万卡级算力池,支撑单日过亿次调用。今年MiniMax在网络和存储上,和火山引擎进行了更加深入的优化合作,实现了更低的网络延迟,将带宽利用率提升了10%以上。
事实上,大模型是解决AI应用碎片化的新开发范式,推动人工智能开发从“作坊式”到“工业化”升级。这意味着大模型会推动AI加速渗透,赋能千行百业。
在产业变革的东风之下,火山引擎有望通过大模型迸发的巨量需求,让其业务边界快速扩大,并打开新的增长曲线。
2023年对于人工智能行业而言是十分特殊的一年。人工智能行业经历了既波澜壮阔、又蜿蜒曲折的数十年发展,终于踏上了新的发展征程。每一次的科技浪潮,总是风云激荡,大水大鱼。旧日帝国或将陨落,而新王随之崛起。
谁会日渐式微,谁又会后发先至?哪一家企业会成为真正的颠覆者,又或者只能等待被颠覆?且拭目以待。