随着产能增加,供需转向平衡,受生成式 AI 算力需求暴涨引发的英伟达GPU(图形处理器)“短缺”情况正逐步缓解。
钛媒体App3月10日消息,据报道,日前有超过六家使用 AI 芯片的公司表示,正在减少采购英伟达 AI 芯片订单,同时从云服务厂商租用英伟达 H100 AI 芯片变得相对容易。而且,一些在早期疯狂抢购GPU的买家,现在正寻求出售部分芯片存货,从而降低 AI 算力成本。
英伟达CEO黄仁勋近期表示,最近几个季度面临供应限制的问题正在“改善”。但他也提到,2024年甚至到2025年,GPU依然会“供不应求”。
而英伟达竞争对手、英特尔CEO基辛格(Pat Gelsinger)也预计,今年多个公司对在 AI 芯片上的资金投入会更加谨慎。
如今估值 430 亿美元的美国 AI 软件公司Databricks 联合创始人兼CEO阿里·戈德西 (Ali Ghodsi) 甚至直言,随着明年供需再平衡,英伟达 GPU芯片价格将会大幅下降(暴跌),从而给众多 AI 科技巨头和初创公司的商业模式带来影响。
“如此疯狂的稀缺现象在2000年代也发生过。但正如互联网(带宽)限制在 2000 年代基本消失一样,GPU 也会发生同样的情况,”Ali Ghodsi日前在一场线上会议中表示。
据悉,Databricks是一家全球领先的“数据+AI”公司,于2013年在旧金山成立,该公司由Apache Spark(一个开源集群运算框架,由加州大学伯克利分校AMPLab所开发)初始成员创立,阿里·戈德西是Databricks联合创始人兼CEO。
除了在Databricks工作之外,Ali Ghodsi还是加州大学伯克利分校的兼职教授,以及加州大学伯克利分校RiseLab的董事会成员。
截至目前,Databricks已获得超过36亿美元的融资,投资方包括微软、亚马逊、a16z、CapitalG、卡塔尔投资局、Sanabil Investments、老虎基金、BlackRock(贝莱德)等37家机构,公司最新估值达到430亿美元——CB Insights独角兽排名中位列第五位,仅次于字节跳动、SpaceX、SHEIN、Stripe。
Ali Ghodsi坦言,AI 大模型的核心不仅仅是算力,数据也是十分重要的。当资本主义、供给和需求解决了GPU短缺问题,其价格会暴跌,这对于任何过度投入GPU算力支出的人来说,都是一个巨大的挑战。
“人们想要在模型上投入越来越多的 GPU,对吧?你知道,花十亿美元、一万亿美元买一个更大、更大的模型。但您构建的模型越大,为其提供服务的成本就越高,它距离 AI 随时随地可用的情况就越来越远。所以我认为,整个领域都走错了方向,构建更小的模型以及如何智能地制造小模型才是根本。”Ali Ghodsi称,合成数据、模型质量、AI 系统都是大模型发展的关键因素。
Ali Ghodsi表示,如果 OpenAI 停止共享知识产权(IP),微软可能会面临威胁。而他非常看好 AI 开源模型的未来发展,称其接近最先进的性能。
Ali Ghodsi强调,大型语言模型(LLM)就是一场基于用户体验的革命性技术。
(本文首发钛媒体App,作者|Kimi智能助手、林志佳,编辑|林志佳)
Databricks CEO Ali Ghodsi
以下是Ali Ghodsi此次公开会议中进行的对话全文,基于Kimi智能助手进行 AI 中英文翻译,钛媒体App进行部分人工修正:
问:生成式 AI 初创公司的机会在哪里?哪些方面做得好,哪些方面做得不好?
Ali Ghodsi:我喜欢用的比喻是,当互联网出现时……人们意识到它将拥有的巨大潜力,对各种初创公司投入了大量资金。然后泡沫破裂了。1999年,人们对路由器和网络感到兴奋,但后来发现这些对互联网来说并不那么有趣,它们变成了一种商品。我认为在基础模型(如OpenAI的GPT-4)这里也会发生同样的事情。随着时间的推移,这些模型的价值将下降到几乎以成本价出售。
基础设施层面非常有趣,那里将有大量的钱可以赚。你可以将其视为人工智能的亚马逊网络服务(AWS),是所有 AI 模型公司的基础设施提供者。这是我们的主要赌注。应用(针对消费者和企业)将具有很大的价值,但我们现在还不清楚具体是什么。
我们在2000年甚至无法预测,Twitter、Facebook、Airbnb或Uber对于我们生活的重要变革。即使互联网爆发已显而易见,但很难预测,如今,它们实际上已成为全球非常有价值的大科技公司。所以问题是,这次会出现哪些公司?
问:人工智能初创公司面临的最大挑战是什么?
Ali Ghodsi:一些公司在这场疯狂的人工智能浪潮之前的两、三年就获得了资金。对于那些公司来说,最大的挑战是收入模式——你赚钱了吗?一些公司现在可以产生大量的使用量和用户,但他们能否将这些变现?
挑战之二是,你如何让这些东西真正有用?演示可能是人类有史以来最好的演示,但你如何确保它足够可靠,让人们每天都可以使用,而且不会出错?你如何确保大模型拥有最新的信息?
第三个挑战是隐私、安全和监管。那里有很多不确定性,而当互联网创建时并没有这些问题。人们对这些事情的关注度不如现在。
问:你认为有哪些 AI 公司最后能成为赢家?
Ali Ghodsi:显然,赢家是微软。但他们的模型来自OpenAI,所以并不是他们自己的模型。OpenAI会继续生产最先进的模型吗?他们也会向微软提供模型权重吗?或决定模型如何响应的设置?整个事情取决于此。
如果你把你的[知识产权]交给了全球最大的企业销售团队……这是一个有趣的关系。我是Perplexity的忠实粉丝,我认为他们真的掌握了用户体验。它很快,很敏捷,我每天都使用它。但这些东西还没有像我们六个月或一年前预期的那样改变我们的生活。
挑战性的问题是,很多初创公司是基于一种奇怪的(囤积)资金或GPU承诺(购买而构建)模型开始的,我认为这将为他们未来带来额外的挑战。由于这个原因,我们将在未来12个月看到很多“动荡”。
问:你能深入谈谈吗,Ali Ghodsi?
Ali Ghodsi:从过去来看,人们在购买这些GPU并用它们进行比特币挖矿。然后以太坊决定改变模型,不再需要GPU。但后来发现,OpenAI正在训练巨大的模型,我们确实需要GPU。然后有一个供应商——英伟达……每个人都急于获取这些GPU。出现了如此疯狂的稀缺性——而在2000年代,带宽周围也有类似的事情。结果证明,资本主义,供求关系解决了问题,带宽的价格大幅下降,带宽无处不在。同样的事情也会发生在GPU上。
那么,对于那些做“GPU洗钱”的初创公司会发生什么,即他们从大的战略投资者那里获得巨额资金,然后从这些提供商那里租用云服务器,这些公司的估值很高,因为他们必须筹集数亿美元只是为了GPU。
那么,当这些GPU价格下降,而有人对这些GPU有三年的承诺时,会发生什么?这将对任何在GPU支出方面过度承诺的人构成巨大挑战。
问:在这一点上似乎存在一些分歧,否则我们不会看到Sam Altman说他需要7万亿美元来解决GPU需求瓶颈,那么你反驳的观点是什么?
Ali Ghodsi:有一些公司——我认为OpenAI和Anthropic——真的相信……精确预测你的大模型性能的……规模定律,你投入的GPU和美元越多,它就越好。
但问题一,当你在X轴向右移动时,你需要在硬件上花费指数级更多的钱,所以数字很快就会上升。即使这是正确的方法,并且没有遇到任何障碍,有多少公司需要这样做?也许只有三四个,对吧?如果随着模型变得开源,一个这样的开源模型,意味着没有人需要在这些GPU上投入预训练费用。
第二个问题是,你的LLM变得更聪明并不重要。你希望它对企业和用户想要的任务真正有用。所以很多事情都会很重要——比如,合成数据(为训练新 AI 模型而生成的数据)、数据质量、整个系统等。
如果你在做自动驾驶汽车,你不会只训练最大的LLM。我认为有很多因素在里面,不仅仅是“投入更多的GPU”。
问:今天如果没有微软、谷歌、Salesforce或其中一家科技巨头的支持,生成式 AI 初创公司很难生存。但你提到Databricks与微软也有密切的关系。你如何看待初创公司与大公司之间的合作并竞争性“平衡”?初创公司应如何处理这些关系?
Ali Ghodsi:现在,三大云服务提供商——谷歌、AWS、微软公司都是Databricks的投资者。在CEO层面,我们与三者的关系都非常好。然后你下到某些产品团队,可能会有重叠、有合作竞争。
我认为这将是常态。我觉得这个领域的任何初创公司都应该对此感到舒适(心态平和)。
我交谈过的大多数创始人,他们都有这种梦想,“我可以创建下一个谷歌”。在这种情况下,我只想说,不要太接近大公司,如果你变得过于亲近和依赖……你放弃了很多优势。所以特别是保护你的知识产权。
所以这是长期与短期的权衡。如果你想要长期的东西、保持更独立。如果你想要短期收入,这很好,很多人现在都想要,这是获得更多风险资本的首要瓶颈。
而从大型云服务(它们转售来自不同提供商如OpenAI、Anthropic和Cohere的AI模型)获得收入是有帮助的。
但如果你想建立一个可持续的公司,你需要有很多客户,而非大公司的“依赖”。
问:鉴于Apache Spark和你构建的一切,以及你为企业所做的一切,你认为,Databricks的开源大模型能否接近现有的前沿模型性能和体验,这种滞后会持续多久?
Ali Ghodsi:我们做了很多研究。我们自己的模型,内部模型,做得非常好。每当我们在企业的具体用例上进行微调时,它们都能击败市场上的所有模型。
当然,我们是在“作弊”。我们使用企业提供的特定任务数据,为该任务调整或构建一个模型,然后我们一次又一次地击败了市场上的所有模型。这是你可以提出的一个论点。但我认为直接回答你的问题,如果你绘制模型在基准测试上的性能,这是我们今天不幸拥有的最好的东西,你看看开源,你看看曲线,它们正在向GPT-4的前沿“收敛”。
为什么是这样?因为你正在使用整个网络和你拥有的所有数据集。但每个人都在做这个。也许如果你有其他人没有的数据集,那将是获得优势的一种方式。
实际上,这就是我们所做的。所以我们做的是,我们收购一家Mosaic公司,他们有非常专业的数据集,我们会在那个数据集上从头开始为他们构建一个模型,然后给他们权重和模型,他们可以保留它。但如果你没有特殊的数据集,你只是在网络规模上进行训练,那么,这是一个“巨大的工程壮举”。
这使得大模型有点“商品化”了。
想象一下,如果企业客户想要拥有自己的 AI 医疗垂直模型,需要拥有专注于数据集或微调等技术的专业公司,不太可能去用 OpenAI 这类基础模型提供商。
问:我们已经看到一些地方的销售 AI 模型自动化产品,比如谷歌。而随着生成性 AI 快速应用,五年后你还会有和今天一样多的软件工程师、销售员吗?AI 是否取代了这些职位?
Ali Ghodsi:我认为在过去一两年里,人们对 AI 将基本上取代所有软件工程师、律师、市场营销人员、医生、教育工作者的想法有点极端。因为我们总是需要人类参与其中,而 AI 技术实际上是在增强人类。
如果你能更容易、更便宜地编写软件,那么更多的人更适合编写软件,这是一个基本的供求论点——结果就是会有更多的软件工程师,而非 AI。
但我认为,未来市场会有变化……当你看具体的细节,比如谁在做工作的哪一部分,它会发生变化。
现在回答你的特定问题。我没有尽可能地推动我的软件工程师,对吧?我有大约2000名员工,我正在尽可能地推动他们使用更多的 AI 编码助手,其中大约70%的人使用它,而剩下的30%拒绝使用它。因为30%中的一些人的编写代码效果是最好的。
我们并没有因为使用 AI 而减少软件工程师的招聘。我们的需求仍然比以前多。在销售方面,也是一样。我认为,可能很快就会发生用 AI 自动化替代销售开发、客服、发邮件等领域员工的事件。所以看看,我们的收件箱会发生什么会很有趣,未来谁会阅读这些收件箱。是人类还是其他人?
但在企业销售方面,我认为不会有大的变化。为什么?因为最终,你如何让大银行从你那里购买2000万、3000万美元的软件,这是关于人际关系的事情——你必须去见CEO,必须说服 CIO 这是好的技术,必须说服开发团队它是安全的。这在很大程度上是关于人际关系。所以,这些工作实际上并没有改变。
如果有什么变化,那么它会变得更加有价值。
问:AI 推理能够在笔记本电脑等边缘设备上完美运行,因此这引发了OpenAI的一些人所倡导的LLM作为下一个操作系统的想法,它将为许多 AI 设备提供动力。这也许是为什么Sam Altman在和Jony Ive谈论 AI 设备的原因。你怎么看?
Ali Ghodsi:人们想要投入更多的GPU,对吧?你知道,投入十亿美元,投入数万亿美元,购买更大的模型。但你所构建的模型越大,服务它就越昂贵。而且它离边缘越远,比如你的可穿戴设备等。所以我认为游戏的真正关键在于更小的模型,以及你能让这些小模型变得多么智能。
我认为整个领域因为谷歌的一篇论文(DeepMind的“chinchilla paper”)走错了方向,它基本上说这就是你需要投入的最佳金额来获得一个模型。所以这意味着……我们已经投入了小模型的最佳金额,它并不那么智能,所以它是一个相当愚蠢的模型,所以我们得转向更大的模型。
现在很清楚……你可以让小模型变得越来越智能。所以我认为,我们将看到令人惊叹的小模型,它们完全可以在边缘设备上运行,你甚至不需要专门的硬件来服务它,你不需要GPU。因为大型语言模型是一场用户界面革命。我们今天做的所有事情,我有手机,我在手机上打字,我点击菜单……未来将消失。我们将开始通过说话与很多东西互动,就像我们现在这样。