人工智能(AI)巨头OpenAI今年或面临巨额亏损,收支缺口可能高达50亿美元。
7月25日,据外媒报道,内部知情人士透露,截至3月,OpenAI预计今年将花费近40亿美元租用微软服务器,以覆盖ChatGPT及其底层的大语言模型的推理成本。
2024年5月14日,OpenAI发布新款人工智能模型GPT-4o。视觉中国 资料图
此外,OpenAI今年的训练成本可能高达30亿美元。据直接参与决策的知情人士透露,去年OpenAI加快了新AI模型的训练速度,超出了公司的原计划。本来预计花费约8亿美元,实际支出却远超这一数额。随着持续推进新一代GPT的训练并着手开发新的旗舰模型,预计今年的相关成本将翻一番。
同时,OpenAI的人员团队也在快速增长,目前拥有约1500名员工,而随着团队继续扩大,未来员工成本可能高达15亿美元。
以此计算,OpenAI整体运营成本接近85亿美元。
而收入方面,AI调研机构FutureSearch上周发布报告,对OpenAI收入进行了拆解。其中,ChatGPT Plus订阅是OpenAI最大的收入来源,贡献了其总收入的55%,约19亿美元;针对大型企业客户的ChatGPT Enterprise贡献了21%的收入,约7.44亿美元;面向中小企业和团队用户的ChatGPT Team贡献了8%的收入,约2.9亿美元;最后,API接口服务贡献了15%的收入,约5.1亿美元。
以此计算,OpenAI预计一年总收入约35亿美元。
那也就意味着,OpenAI的收支缺口可能高达50亿美元。
目前,AI的训练成本主要集中在以AI芯片为主的硬件方面,多位业内人士也都曾向澎湃新闻记者表示,目前很多AI公司都比较依赖英伟达的芯片。
作为OpenAI主要竞争对手的AI独角兽公司Anthropic CEO也曾表示,AI模型的训练成本将在2027年之前提升到100亿美元,甚至是1000亿美元。
而Anthropic今年也或面临大额亏损,据外媒报道,Anthropic预测今年将花费超27亿美元开发AI。而在更早前,Anthropic预计2024年收入为约8亿美元。
业界对此则持偏乐观态度。企业软件公司Databricks联合创始人Ion Stoica表示,业界对推理成本的大幅下降持有信心,OpenAI未来几年可能从其模型中获得合理利润。
前述知情人士也透露,OpenAI租用的微软服务器相当于配备了35万颗英伟达A100芯片,其中超过80%被用来支持ChatGPT的运行。如果OpenAI能够降低其在这些服务器上运行模型的成本,40亿美元的成本有可能降低。
此外,在7月初,谷歌母公司甲骨文与微软签署协议,为OpenAI提供由英伟达芯片支持的服务器,涉及10万块GB200显卡,该项目预计将在明年二季度准备就绪。
OpenAI方面也在不断尝试新技术新模型来降低成本、自研芯片以摆脱对英伟达芯片的依赖等方法。7月18日,OpenAI推出GPT-4o mini,称其为当前最强大、最具成本效益的小型模型,API价格将比GPT-4o低超九成;7月19日,OpenAI被曝由CEO山姆·奥特曼(Sam Altman)牵头,正与包括博通(Broadcom Inc.)在内的半导体设计公司就开发新芯片进行洽谈。
同时,Ion Stoica也指出,相比推理成本,AI的训练成本更加复杂,企业可能需要持续投入更多的资金以训练规模更大的模型。
据企业数据跟踪平台Tracxn数据,OpenAI目前已完成7轮融资,筹集资金超110亿美元。最新的一次是在今年4月,知名投资人“木头姐”凯西·伍德(Cathie Wood)旗下的方舟风险基金投资,但投资规模并未透露。
对于OpenAI可能面临的巨大收支缺口,人工智能专家、纽约大学教授加里·马库斯持悲观态度。
作为生成式AI浪潮的唱反调者,他对此评论称:“投资者应该关注目前AI企业的护城河以及独特的技术是什么,当Meta免费提供类似技术时,盈利途径是什么?他们有杀手级应用吗?这项技术可靠吗?什么是真实的,什么又只是演示?”
他认为,目前的经济并未奏效,技术已经处于停滞期,没有杀手级应用出现,而AI的幻觉依然存在,依旧会犯“愚蠢的错误”,且没有“护城河”,生成式AI的泡沫在一年内将会破灭。