AIGC造富风暴,谁在凿英伟达的“围墙”
华夏时报(www.chinatimes.net.cn)记者 卢晓 见习记者 石飞月 北京报道
一场关于生成式AI(AIGC)的风暴,没能让OpenAI马上摆脱亏损,却让英伟达赚得盆满钵满:产品抢手,订单不断,截至4月底的最新一季财报显示,英伟达数据中心的营收创了新高,这是在消费市场的成果;投资者纷纷涌入,截至北京时间7月4日早上收盘,英伟达股价报424.13美元/股,较年初时飙升190%,市值达1.05万亿美元,这是在资本市场的收获。
事实上,英伟达本就是这场风暴的推动者之一,全球算力需求激增,其GPU几乎成为唯一的“硬通货”,“GPU+ CUDA”的软硬件组合更是构筑了该公司在AI芯片领域的护城河,且英伟达如今还在孜孜不倦地修城墙。不过,这样的技术壁垒能维系多久呢,竞争对手们自然不会让英伟达独享这场AI盛宴——AMD、英特尔、微软、谷歌……正拿着武器准备破墙而入。
供不应求
迫于美国对中国的芯片出口限制,英伟达无法在没有出口许可证的情况下向中国客户销售其超高端计算GPU A100和H100,因此专门推出了符合美国出口标准的A800和H800,被业内称为A100和H100的“阉割版”。
不仅是芯片供应受到限制的中国,即便是美国本土企业也缺货。OpenAI首席执行官萨姆·奥特曼今年曾表示公司的GPU供应非常有限,这导致他们推迟了许多短期计划。A100和H100的价格由此暴涨,特别是旗舰级H100价格在海外市场遭到炒作,个别商家价格达到4万美元以上。
英伟达CFO克雷斯曾透露,目前AI 算力市场的需求已经超出了公司对未来数个季度的预期,订单已经多到做不过来了。
在供不应求的大背景下,英伟达只好增加生产订单。7月3日,据媒体报道,英伟达在台积电投片,由于AI领域需求增长,该公司第二季度以来不仅逐季陆续上调台积电5/7nm家族制程订单,同时也争抢台积电CoWoS产能,强劲追单动能更已延续至2024年,整体下单规模较2023年至少再增2成以上。
《华夏时报》记者就此向英伟达方面求证,截至发稿,对方未对此做出回应。
“垄断”地位
在今年这场由生成式AI掀起的人工智能热潮中,相比那些人工智能企业,英伟达已经得到的益处才是最实打实的,除了在资本市场的身价暴涨,成为全球市值最高的半导体芯片企业,GPU销量大增还助其数据中心业务在最新一个财季的营收创了纪录。
今年年初,大型语言模型ChatGPT红上了天,也带动了全球AI概念股普涨,作为ChatGPT GPU的供应商,英伟达自然也不会错过这样的涨势,在多数AI股已经降温几个月后,该公司的股票还处于上涨通道中。
而在截至2023年4月30日的2024财年第一财季,英伟达数据中心业务营收达到42.8亿美元,同比增长14%,环比增长18%。过去,英伟达最大的业务板块是游戏,云计算平台和大型互联网公司对其GPU芯片的需求激增,促使数据中心在营收上彻底超过游戏业务。英伟达还预测,截至7月的新一季度销售额将达到110亿美元,比华尔街此前的估计高出50%以上。
同样作为芯片公司,过去的英伟达常常被高通、英特尔等芯片公司的光芒挡住,直到今年人工智能迎来爆发,才将英伟达带到更多人面前。那么在人工智能领域,英伟达的影响力到了什么地步呢?有数据显示,英伟达目前在AI处理器市场上占据大约80%的份额,远远领先于其它竞争对手。
对于AI项目来说,GPU通常比CPU更适合用于加速模型的训练和推理,其并行计算能力、浮点运算速度、内存带宽等性能有更加明显的优势,而英伟达作为GPU的发明者,自然占尽先机。
早在1999年,英伟达就推出了全球第一款GPU,此后的20多年里,该公司一直在进行产品的升级和架构的更迭,包括2006年发布 Fermi 架构、2012年发布Kepler架构、2016年推出AI加速器Tesla P100和Volta架构,以及2020年发布Ampere架构等。
然而,单靠GPU无法达到英伟达如今在AI芯片市场的地位,更大的转机来源于其2006年推出的统一计算设计架构-CUDA,CUDA让英伟达的GPU拥有解决复杂计算问题的能⼒,可以针对不同的任务对处理器进⾏编程。如今,CUDA有超过400万以上的开发者。
其他科技巨头曾试图打破英伟达的技术和市场壁垒,比如苹果在2008年推出对标CUDA 的OpenCL,AMD在2016年推出开放式软件平台ROCm,但都没能打破CUDA的独特性地位。
英伟达GPU的“垄断”地位,再加上CUDA的封闭属性和十几年形成的软件生态,才真正形成了其目前难以被取代的市场地位,这也是目前AIGC研发企业离不开英伟达的主要原因。
值得一提的是,在生产制造这一环节,英伟达“独宠”台积电,几乎所有高精尖的订单都交给台积电完成。文渊智库创始人王超总结道,英伟达和台积电形成了一个硬件供应制造的链条,也是这一波大模型热潮中最大的收割商。
筹码不断
尝到甜头的英伟达,正在努力将自己的护城河越挖越深。
一方面,英伟达的GPU产品矩阵愈加强大。2020年,该公司推出A100,算力达到其上一代芯片的20倍,也成为当时人类制造出的最大7纳米制程芯片;2022年,英伟达又推出性能更强的一代产品H100,在不同测试中表现出的性能是A100的1.5倍到4.5倍。
这两款GPU随着ChatGPT以及AIGC的大火被各大AI企业和互联网巨头争抢,一些企业甚至等了半年的时间才拿到他们想要用来训练庞大数据模型的数千个H100芯片。
今年,英伟达又趁热打铁在2023 COMPUTEX大会上更新了多款AI算力产品,推出GH200 Grace Hopper超级芯片,以及基于NVIDIA NVLink Switch System驱动的拥有256个GH200超级芯片的NVIDIA DGX GH200超级计算机。英伟达CEO黄仁勋表示:“生成式AI、大型语言模型和推荐系统是现代经济的数字引擎。DGX GH200 AI超级计算机集成了NVIDIA最先进的加速计算和网络技术来拓展AI的前沿。”
与此同时,英伟达对外加大了对AI企业的投资。据外媒报道,英伟达在2月秘密收购了AI初创企业OmniML。OmniML主要产品是 Omnimizer,一个旨在快速、轻松地大规模进行 AI 优化的平台,可以压缩机器学习模型的大小,以便大模型在更小的设备上运行,而非依赖于云端算力。
上个月宣布的三起AI领域融资中,也有英伟达的身影,分别为做类ChatGPT聊天机器人的加拿大AI创企Cohere完成的2.7亿美元C轮融资、美国AI聊天机器人创企Inflection AI获得的13亿美元新融资、美国AI文生视频创企Runway完成的1.41亿美元新融资。
英伟达的AI蛋糕越做越大,筹码也越加越多,这主要源于黄仁勋对AI产业未来长足性发展的信心:“计算机行业正在同时经历‘加速计算’和‘生成式AI’这两个重要转变,随着各大企业争相将生成式AI应用到每一种产品、服务和业务流程中,目前具有万亿美元规模的全球数据中心基础设施,将从通用计算转型为加速计算。”
潜在威胁
英伟达这波收割,让不少同处AI领域的竞争对手和合作伙伴们眼红了,更何况后续的市场红利还会更多。根据Precedence Research的数据,2022年全球人工智能芯片市场规模为168.6亿美元,2022年-2032年CAGR有望达29.7%。
所以,虎视眈眈的觊觎者们也在加大在这一领域的研发。2022年的投资者会议上,英特尔首次公布了自研超算卡Ponte Vecchio的性能参数。按照英特尔官方说法,该产品的性能领先英伟达A100至少160%。
今年6月,AMD直接发布了一款名为MI300X的GPU,直接对标英伟达的H100,该公司宣称MI300X内存不论密度还是容量都高于英伟达H100。有媒体曾报道称亚马逊云正在考虑使用AMD的最新产品,
即便是合作伙伴,也并不情愿每年向英伟达交巨额的“算力税”,纷纷准备自食其力。据媒体报道,微软自2019年开始开发内部代号为“雅典娜”(Athena)的芯片,已向一小部分微软与OpenAI员工提供这款芯片,他们正在测试这项技术。而谷歌今年4月也首次公布了自家AI超算的细节,性能相较上代v3提升10倍,比A100强1.7倍,据说能和H100对打的芯片也已经在研发了。
除了这些国际巨头,在贡献了英伟达1/5收入的中国大陆市场,同样有对标这家企业旗下产品的竞争对手,尤其在美国加大对中国芯片出口限制的背景下,这对英伟达在中国大陆的发展形成了挑战。
这些潜在威胁,英伟达无法忽视。
深度科技研究院院长张孝荣对《华夏时报》记者表示,英伟达不能坐以待毙,可以多管齐下应对挑战,比如加速产品迭代,推出更高性能的新品来保持领先优势;旧品迅速降价,降低客户使用成本以巩固市场份额;加强配套软件优化,提升软件使用效能,从而完善并扩大产业生态。
“需要注意的是,AI发展并非一条技术路线,目前市场的主流是大模型训练,未来可能会产生其他技术路线,这些新路线未必会需要昂贵的训练芯片,英伟达可能要未雨绸缪。” 张孝荣说。
这意味着,如果有一天其他技术路线取代大模型的主流地位,GPU或许不再具备技术优势。目前市场上有一种声音是FPGA(现场可编程门阵列)可能在未来取代GPU和CPU,而在这一领域,英特尔和AMD早已将占据市场大部分份额的Altera和赛灵思收入囊中,英伟达慢了一步。
当然,这只是一种市场预设。张孝荣指出,FPGA的市场形势的确比较乐观,但FPGA专业程度高,开发应用难度大,推广普及需要相当的时间,厂家在比拼产品硬件条件的同时,还要比拼服务配套、生态建设能力,如工具、软件平台、上下游厂商协作等等,短期内市场格局不会有太大变动。