当前位置:首页|资讯|元宇宙|编程|ChatGPT|人工智能

英伟达“大难不死”,中国GPU企业“必有后福”

作者:雷科技发布时间:2023-02-24

划重点:

  • 1为了满足当前各AIGC的服务器需求,OpenAI 已经使用了约2.5万个英伟达GPU,如果谷歌需要将该技术应用到每一次的搜索中,则需要部署超过410万个英伟达GPU。
  • 2英伟达产品在数据中心GPU领域的市场占有率已经稳定在90%左右,随着AIGC对算力需求的不断增加,英伟达股价在半导体下行周期中逆势上涨也是情有可原的。
  • 3对于国内芯片厂商而言,朝向AIGC领域发展的最大利好就是在一定程度上排除了英伟达和AMD的干扰,尽管目前国内有多家以英伟达GPU为目标的AI芯片厂商,但是能够取得客户认可、获得使用机会和销售订单的几乎并不存在。

如果说2021年是“元宇宙”的元年,2022年是“AI作画”的元年,那么2023年就是属于ChatGPT的一年。

继2016年的AlphaGo之后,ChatGPT成为了人工智能领域的又一个现象级产品。不同的是,建立在海量训练模型之上的“它”,不仅能够根据聊天的上下文,模拟真实人类的聊天过程,甚至还能完成撰写邮件、文案、翻译、代码等任务,可见人工智能介入到创作中已经是全行业的发展趋势。

有趣的是,目前看来这股ChatGPT风潮最大的受益者既不是开发商OpenAI,也不是背后的大股东微软,而是提供AI算力芯片的英伟达。近日,英伟达发布了最新一季财报,尽管营收出现下滑,但是明显强于市场预期,这也导致公司股价在盘后交易一度上涨超8%。

(图源:英伟达)

尽管英伟达在矿潮后的日子依然不算好过,但是ChatGPT和AI绘画掀起的这股AIGC浪潮,确实在很大程度上提高了资本和舆论对这家公司的发展预期。值得关注的是,打造ChatGPT的潜在算力市场究竟有多大?AIGC真的能够帮助英伟达摆脱危机吗?在资本市场狂欢下,国内厂商又能在多大程度上受益?

进入AIGC的发展快车道

在短短半年前,黄仁勋正面临着英伟达自创立以来最大的一次危机。

国内的明令禁止、俄乌战争的打击、以太坊政策变化,都让一度无比狂热的矿潮走向了终点。随之而来的矿卡回游,严重影响了全新显卡的销路,这也让过去一年时间的全球独显出货量创下二十年新低。作为全球显卡市场的头号玩家,英伟达业绩连续两个季度下滑,股价更是在一年之内暴跌70%。

而在半年后的今天,ChatGPT的现象级爆火让英伟达市值一举重登美股半导体板块第一位,大幅甩开英特尔等同行,这也让黄仁勋在加利福尼亚大学伯克利分校哈斯商学院参加活动时大胆发表了以下言论,“ChatGPT的面世对人工智能的意义,就跟手机领域‘iPhone’的出现差不多。”

(图源:英伟达)

黄仁勋的这番说法,自然有对ChatGPT的赞誉在其中,但更重要的还是一种对于ChatGPT高速发展的兴奋感。

为了让ChatGPT能够像人类一样思考和说话,海量的信息数据和强大算力的支撑是不可或缺的,而这背后则离不开高性能芯片的支持。以复旦大学团队最新公布的类ChatGPT系统MOSS为例,初出茅庐的MOSS便采用了8个英伟达的A100 GPU,而OpenAI使用了约1万颗英伟达GPU来训练GPT-3.5模型。

(图源:复旦MOSS)

需要注意的是,模型训练只是ChatGPT的第一步,实际支持应用时所需要的GPU只会更多。根据外媒Fierce Electronics的报道,为了满足当前的服务器需求,OpenAI 已经使用了约2.5万个英伟达GPU,如果谷歌需要将该技术应用到每一次的搜索中,则需要部署超过410万个英伟达GPU。

浙商证券研报指出,在目前的环境下,采购一片英伟达顶级GPU成本为8万元,部署一台GPU服务器成本通常超过40万元。如果国内厂商跟进相关项目的话,至少需要上千颗英伟达顶级GPU才能完成基础算力设施建设。换算下来,单次模型训练成本超过1200万美元,这还没有计算未来长期运营可能带来的持续成本。

正因如此,外媒预计,ChatGPT的爆火可能会使全球再度面临GPU短缺的挑战,出现短缺的时间可能还会早于预期。近年来,英伟达产品在数据中心GPU领域的市场占有率已经稳定在90%左右,随着AIGC对算力需求的不断增加,英伟达股价在半导体下行周期中逆势上涨也是情有可原的。

国产芯片厂商将迎发展良机?

让人好奇的是,市面上那么多芯片公司,为什么只有英伟达的股价会随着ChatGPT节节攀升?

在我看来,英伟达能够搭上AIGC这列快车,源于其在这一领域的远见和长久投入。一方面,英伟达在2007年6月推出的CUDA技术,进一步释放了GPU的大规模并行计算能力,让显卡可以用于图像计算以外的目的,甚至可以用于AI训练和推理中的大规模并行计算任务。

(图源:英伟达)

尽管AI相关应用在当时没有得到重视,但是英伟达还是为CUDA技术持续投入了十数年时间。直到今天,这一价值开始被市场认可,在这一领域的长期储备,才让英伟达在ChatGPT商业化早期就吃到了红利。正如研究机构Gartner分析师盛陵海所述:“英伟达已经构建了成熟的生态系统,而CUDA正是它的‘杀手锏’。”

另一方面,得益于CUDA技术的持续优化,在AIGC项目没有大范围普及前,英伟达便推出过数款基于AIGC技术应用的功能。举个例子,去年年初,英伟达推出了NVIDIA Canvas AI作图工具,画手们可以随时按照自己的需求,在空白画布上画出几笔,AI就可以自动生成一张和草图相符合的景观图像。

(图源:英伟达)

当然,除了英伟达外,不少国内芯片厂商也在ChatGPT爆火以后纷纷跟进,诸如海光信息、天数智芯、壁仞科技、摩尔线程等公司,也都推出了自研的通用GPU产品。壁仞科技在去年8月发布首款7nm制程的通用GPU芯片BR100,更是声称其可与英伟达的旗舰H100一较高下,可惜至今尚未量产上市。

对于国内芯片厂商而言,朝向AIGC领域发展的最大利好就是在一定程度上排除了英伟达和AMD的干扰——去年8月,美国证券交易委员会已通知英伟达和AMD,未经许可不得将其最新的数据中心GPU出口到俄罗斯和中国,尽管英伟达很快便宣布将推出A800芯片作为替代品,但这依然意味着庞大的市场空间被清空了出来。

问题在于,尽管目前国内有多家以英伟达GPU为目标的AI芯片厂商,但是能够取得客户认可、获得使用机会和销售订单的几乎并不存在。

从海光信息的招股书中,我们可以看出,在通用处理器领域,英特尔、AMD的CPU产品在全球市场中占据绝对优势地位;在协处理器领域,英伟达、AMD的GPGPU产品占据绝对优势地位。总结一下,就是国内厂商的市场份额与国际龙头企业相比差距较大,面临着激烈的市场竞争。

在这种情况下,国产厂商想要获得出头的机会,一方面要解决性能和生态适配问题,例如摩尔线程,甚至做到了反向适配英伟达的生态;另一方面则可以和国内人工智能巨头合作,这样做可以在芯片制造水平略逊一筹的情况下,训练出更加契合企业需求的人工智能模型。

换言之,国产GPU领域依然是任重而道远。

只靠AIGC,能不能救英伟达?

问题来了,AIGC的爆火,究竟能不能救现在的英伟达?

在我看来,这要结合英伟达各项业务的表现来看。根据财报显示,在2023第四财季中,备受关注的英伟达数据中心业务收入为36.2亿美元,同比增长11%,环比下降6%。受到了硅谷大厂收缩带来的影响,虽然相关业务营收创下新高,但增速自上季度的31%跌落至11%。

换言之,尽管AIGC相关应用目前全球爆火,市场似乎也在一致看好英伟达的未来走势,但是具体厂商能在多大程度上受益,依然值得观察。根据日经亚洲援引岛内供应链人士消息,英伟达方面甚至没有因为ChatGPT在台积电加投先进工艺的4nm芯片,高端计算卡缺货的现象可能会再次出现。

(图源:英伟达)

比起AIGC业务那不确定的前景,游戏业务方面的疲态反而是明显很多。根据财报显示,在2023第四财季中,英伟达游戏业务收入仅为18.3亿美元,虽然超过分析师的预期,但是曾经不愁卖的显卡在连续三个季度出现明显的库存积压,依然给英伟达造成了极大的业绩压力。

早期倾销的矿卡大量回流,加上RTX 40系显卡的发布,为英伟达清理剩余RTX 30系显卡的任务设下了极大的阻碍。在买显卡送游戏、官方降低价格等方式都已经没有显著效果的情况下,或许只有利用“Super”等后缀包装一下库存才能够改变如今的局面了。

不仅如此,黄仁勋还在近日举行的电话会议上宣布了公司的一项新服务,未来NV将直接面向企业提供云计算服务,企业可以通过租用的方式,基于英伟达的云端技术开发自己的生成式AI服务。这项业务的出现,很可能会使英伟达与其他科技巨头产生利益冲突。

在硅谷巨头缩衣节食、竞争对手与日俱增的情况下,ChatGPT的热潮,究竟能否帮助英伟达营收重回正轨,仍然是未知之数。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1