当前位置:首页|资讯|英伟达|微软|生成式AI

英伟达卖软件,微软造芯片,大模型竞争格局生变

作者:中国企业家杂志发布时间:2023-10-12

微软将在下个月(11月14日)的年度技术大会上,正式推出自己的首款AI芯片。 

这款专门为AI研发设计的芯片,在功能上与英伟达的GPU芯片(H100)类似,都是专为训练、运行大语言模型的数据中心服务器而设计的。 

目前微软的数据中心服务器中使用的正是英伟达的GPU芯片。微软推出这款AI芯片的目的,就在于尽早摆脱对英伟达GPU的依赖性。

因为英伟达GPU高昂的价格,已让微软难以承担。按照投入产出比(ROI)来计算,微软的生成式AI产品已出现严重亏损。 

随着微软这款AI芯片的正式发布,也会把自己与OpenAI之间的竞争,由以前的遮遮掩掩、犹抱琵琶半遮面,彻底公开化,变得更为正面和直接。 

01 微软生成式AI产品亏损

GitHub Copilot是微软的第一款生成式AI产品(于2022年推出),可以帮助开发者编写、调优、转换程序代码。由于大大缩短了开发者的编程时间,现在已经拥有超过150万的用户,其中有约一半的用户直接就在Copilot上编程。 

微软向每位个人用户每月收取10美元的费用,企业版本则是每个账户每月20美元。GitHub Copilot为微软带来的年收入已经超过了1亿美元。

但生成式AI大模型的高成本,即便让年收入超过2000亿美元的微软,承担起来都颇为艰难。来自150万用户每人每月10美元的Copilot服务费,难以支撑Copilot运行的高成本。 

有知情人士透露,在今年年初,微软Copilot平均每位用户每月带来的亏损超过20美元,有的用户甚至造成了最高达到80美元的亏损。 

造成亏损的原因是高成本,而造成高成本的一个关键因素就是英伟达的GPU芯片。

通常,像微软这样的AI巨头都通过数据中心训练、运行各自的大模型,并在云端向用户交付(订阅付费)AI产品。OpenAI的ChatGPT也是在微软的Azure云上训练、运行并交付。 

而无论是微软还是OpenAI都一致认为,在大模型的训练与运行中,如果完全依赖英伟达的GPU芯片,所带来的成本“高得令人望而却步”。 

因为要做专门的AI运算,这些数据中心里的服务器大多装配的是英伟达的GPU芯片,8张这样的GPU,价格在20万美元左右。OpenAI的ChatGPT就是因为依靠这些昂贵的英伟达芯片,在今年年初时每天的运营成本高达约70万美元。 

如果把自己的AI大模型都部署在Bing、Office 365、GitHub这些产品中,微软需要投入高达数百亿美元的硬件基础设施成本,其中AI芯片占大比例。

为了“弥补”这种投入与产出之间的差距,包括微软在内的各路AI玩家使尽浑身解数。微软、谷歌都谋划着如何提高AI产品的定价,Zoom推出简化版本的AI产品,Adobe公司则通过限制每月用户量、根据用户的实际使用情况再具体收费。 

自研芯片、提高定价……这些不是办法的办法背后,是AI商业化期望度过高,但商业化模式至今仍模糊不清的现实窘境。 

现在的生成式AI商业化,并不能套用曾帮助过谷歌、亚马逊、Facebook在各自领取占据独有优势的规模化网络效应,并不是用的人越多,成本就越低。 

生成式AI产品的每一次使用,几乎都需要单独调用一次产品背后的复杂计算。用户越多、使用的越多,支持这些计算背后的硬件基础设施成本费用就越高,而固定费用(率)的服务费自然难以把这些抵消高成本。 

02 英伟达“咄咄逼人”

每一个言必称拥有AI大模型的公司CEO,也在无时无刻都在抱怨无法获得足够多的英伟达GPU芯片。这些芯片被优先部署在英伟达大客户微软、亚马逊、谷歌的数据中心服务器上。 

OpenAI的ChatGPT引发的生成式AI浪潮,让各家大小公司对GPU芯片的需求陡增,从而把英伟达推向了前所未有的高度——除了与客户已达成了价值数百亿美元的新订单,英伟达的市值超过1万亿美元。 

坊间甚至有人说,英伟达这个淘金浪潮中卖铲子的人,现在却想要“铲平”淘金者。

英伟达曾要求租用自己的云服务商大客户数据中心里部署GPU芯片的服务器,转手再给到大客户的竞争对手去使用——微软、谷歌、甲骨文已同意了这个“不平等提议”,亚马逊AWS没有同意。 

此外,在把自己的芯片“恩赐”给初创云服务公司时,英伟达也曾要求这些初创云服务公司把自己的云客户“介绍”给英伟达认识。 

英伟达此举意在顺着“GPU芯片—服务器—数据中心—云端”这个路径,去触达更多的企业级用户, 与之建立更紧密的客户关系,最终是为了销售自己的AI相关软件。这些软件有的是专门用于帮助企业客户管理开发大型数据集,与微软的类似产品形成了直接竞争。 

目前,使用英伟达AI软件来构建大模型的公司已经有Adobe、Getty Images、Shutterstock。 

在英伟达最新的季度财报中,这家咄咄逼人的公司称,向那些涉及到开发AI或VR应用的公司销售软件,可能会带来3000亿美元的潜在营收。 

除了这种软件“批发”模式,英伟达也还做“私人定制”。通过(合作伙伴、自己的)云端为一些业务专业性比较强的客户公司,提供根据业务定制的生成式预训练模型(GPT),这类客户中包括生物制药公司Amgen、保险公司CCC Intelligence Solutions。 

英伟达对微软的威胁,不仅仅是眼皮底下卧榻之侧的高成本芯片, 更有关系到将来业务增长的AI商业化营收。 

03 生成式AI竞争下半场

在市场研究公司Gartner今年9月初发布的“2023年新兴技术成熟度曲线”中,生成式AI目前正处于期望膨胀期,“其发展前景还存在很大的不确定性。”Gartner研究副总裁Melissa Davis如此判断。 

2023年新兴技术成熟度曲线。来源:Gartner

在业内人士看来,类似OpenAI、Anthropic这类生成式AI初创公司的高估值上涨,正反映了市场对AI的期望高度膨胀。预测未来企业会对生成式AI投入的成本进行更严格考量,在2024年,企业对生成式AI的投资可能会减少。

推出了GPT-4的OpenAI在9月底与外部投资者讨论股票出售时,将自己的估值界定在800亿~900亿美元之间,是今年年初的三倍。 

OpenAI的最直接竞争对手Anthropic在获得亚马逊40亿美元的投资后,计划以200亿~300亿美元的估值,再从谷歌和其他投资人融资20亿美元。在今年3月份,其估值还仅为40亿美元。 

事实上,Anthropic是从OpenAI“衍生出来”的。2019年,OpenAI进行了组织架构调整,在已有的架构内成立了一家“有限盈利公司”,把营业利润目标置于技术研究之上,从而导致了一批研究人员出走后创立了Anthropic。 

然而,“殊途同归”,两家公司在今年对投资方报出高估值的充分理由,都是对自己的商业化营收信心。 

Anthropic预计到今年年底自己的收入会达到2亿美元。而作为先行者的OpenAI已开始真正赚钱了。

GPT-4发布后,OpenAI现在的年化收入为10亿美元,而在发布ChatGPT(2022年11月份)的前一年,这个数字只有2800万美元。 

微软AI商业化产品的高额亏损、OpenAI与Anthropic对营收增长的高度预期,以及英伟达借势加紧拓展自己的商业边界,在这些表面的底层其实是AI大模型竞争格局的变化。 

由之前“芯片—算法—训练数据”三位一体上,各个生产投入(生产工具、生产资料)层面的拼蛮力、大力出奇迹,变成如今AI大模型商业化落地的急迫形势,促使各路玩家更加追求投入产出比,即芯片功效比、模型算法优化,以及产品商业化应用时的10亿级用户量。 

对于“十亿级用户量”,先发优势也许能起到关键作用。 

虽然OpenAI在首次推出ChatGPT后的一个月内,就吸引了1亿用户,但微软、谷歌、亚马逊已经在在线办公、搜索、购物的垂直领域中早早就积累了10亿级用户量。高估值的OpenAI与Anthropic还要再加一把劲。 

本文来自微信公众号“中国企业家杂志”(ID:iceo-com-cn),作者:赵建凯,36氪经授权发布。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1