当前位置:首页|资讯|OpenAI

OpenAI 巨亏 50 亿美元,大模型暂时还不是门好生意

作者:AppSo发布时间:2024-08-03

大模型的军备竞赛,还要继续烧多少钱?

毛估估要一万亿,美元。

高盛预估,未来十年内,科技巨头们还要在生成式 AI 上继续投入一万个亿,但是能见到什么成果?没人知道。

恰好,The Information 近日也替 OpenAI 算了算账,今年的亏损可能要去到 50 亿美元。

做大模型,成本很高

以 OpenAI 这个规模,运营成本高并不意外。The Information 得到的消息显示,向微软租服务器,大概就要花掉 40 亿。

不能省的还有训练成本。模型越复杂,训练所需要的数据量越大,计算量也越大。而且训练并不是全部,推理工作才是消耗的大头。

根据斯坦福 HAI 的 2024 年人工智能报告,计算量不断在走高,其中 Gemini Ultra 是目前耗费最大的模型。

GPT-4 紧随其后,再考虑到 OpenAI 可能在训练的新模型,这部分的支出,估计 30 亿美元打不住。

作为竞品的 Anthropic,花的钱也不少。CEO Dario Amodei 曾经在播客采访中预估,三年后训练的成本可能高达 1000 亿美元。

AnthropicCEO Dario Amodei

在服务器、GPU 等硬件供应的背后,是消耗性成本,也就是电费。施耐德电气能源管理研究中心发布的白皮书里显示,2023 年 AI 的功率消耗为 4.5GW,占了数据中心(可以理解为机房)总功率消耗的 8%。

怎么理解呢?

一个普通家庭,每个月用电量大概在 300 千瓦时,一年按 3600 千瓦时来算,按施耐德算出来的耗电量, 足够一千万个家庭一年的用电。

除了硬件方面,还有人力支出。

进入大模型军备竞赛以来,各个厂商之间对人才的争夺也逐渐加码,比的就是谁能开出更高的薪水。

OpenAI 目前正在招人的岗位

2023 年时,OpenAI 的人工支出已经要五个亿,团队还在不断扩大,费用也在不断增加。

那么林林总总加起来,OpenAI 的运营成本可能会去到 85 亿美元。

反观国内,虽然没有公开的模型厂商成本数据,不过,智谱的 CEO 张鹏曾经坦言,「确实做大模型这件事太烧钱了,而且确实也面临市场上的需求。」。

收入?不太乐观

在成本居高不下的同时,是收入的不确定。

The Information 估计,OpenAI 主要的收入来源是产品订阅和收费的 API 端口,全年收入可能在 35-45 亿美元之间。

类似的,Anthropic 的收入也不太乐观。虽然它背靠亚马逊这个大客户,但全年收入预估只有 4-6 亿美元。

国内的情况更摸不透一些,to C 的模式并不清晰,而面对中小开发者,几乎就是在白送。

自从本月初,OpenAI 宣布要断掉非支持国家和地区的 API 服务,国内的大模型厂商迅速反应,力求在最短的时间,用最低的价格,吸引开发者。

从智谱、minimax,到阿里、百度,价格一低再低,而且直接免费。

面对中小开发者,「合作」才是厂商们更看重的。

用低价招徕开发者和中小企业,本质上是一种合作。这样能尽可能地迅速扩大市场份额和用户基数。这是从移动互联网时代就有的圈地战术。

而更多的开发者能够利用 API 开发出各种新颖的应用,就更有助于挖掘大模型的潜在价值和应用场景。

用户的使用数据,可以帮助模型进一步改进和优化,形成飞轮。

这正是 Perplexity 的信念,CEO Aravind Srinivas 此前接受播客采访时,就提到了这种「AI 闭环」的理念:做 AI 产品,让更多人使用,从而使产品更好,良性循环。

CEO Aravind Srinivas

「客户需求和反馈,是我们技术往前创新突破和迈进的驱动力,让两者比较好的闭环,我们在努力做到这样的事情。张鹏也有类似的想法,「我们希望是贯通的,商业化的过程、服务客户的过程当中,就是以我们的技术和产品核心能力驱动的。」

只是,在那个形成循环的关键节点,也就是杀手级应用出现之前,只有耕耘和等待。

但等待是有成本的,于是 to B 业务就成了养家挣钱的「孩子」。

根据百炼智能的统计,去年第 4 季度,大模型类别的项目,平均招标预算在 600 万人民币左右。今年的一些公开数据里,千万级的招标也能见到。

图片来自:百炼智能

采购这些大模型,到底对业务有没有帮助,政府和行业龙头都是在拿真金白银来测试,也是有下错注的风险。

美国的软件行业龙头 Salesforce 赛富时就栽过跟头。

Salesforce 本身就是做云计算和 CRM 系统的公司,尤其擅长 SaaS 业务,在全球范围内有大量客户。在疫情的几年里,业绩还曾经逆势上扬,从 200 亿美元飙升到 400 亿美元。

但是今年五月,Salesforce 的股价暴跌至二十多年来最低,营收远远低于预期,订单增长只有 3%。

分析师认为,过去一年里,他们花了太多钱在 AI 上,再加上业绩增长又不行,花出去的钱比挣到手的还多。

高盛发布了一份内部访谈报告,其中采访了全球股票研究主管 Jim Covello,他认为人工智能的成本起点太高了。

Jim Covello 接受采访

即便成本下降,模型公司们还是需要做大量的努力,才能让自动化变得更能负担得起。

「有人拿 90 年代来对比,当时服务器的价格从原本的天价,一路下降。但是一台 $64000 美元的服务器再怎么贵,也跟现在的 AI 成本是没法比的。」

同时,他还指出在 90 年代时,英特尔一直在面临其他厂商的追赶和压力,竞争带来了价格的逐步降低。可是现在,英伟达几乎一家独大。

Covello 的话说得很直接,「科技界对于人工智能的成本,会随着时间推移而大幅下降,有些自满了。」

MIT应用经济学教授 Daron Acemoglu 也接受高盛的采访,他并不否认,生成式人工智能有潜力从根本上改变科学发现、研发、等过程,创造新产品和平台。

「但考虑到当今生成式人工智能技术的重点和架构,这些真正的变革不会很快发生,而且在未来 10 年内发生的可能性极小——如果有的话。」


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1