当前位置:首页|资讯|字节跳动|阿里巴巴|百度|腾讯|科大讯飞

国内大模型价格战:谁能扛到最后?

作者:三只狗看世界发布时间:2024-05-27

最近一周,大模型价格战愈演愈烈。字节跳动、智谱、阿里巴巴、百度、腾讯、科大讯飞等国内主要科技公司相继降价。这样的情景让人不禁联想到共享单车和云计算价格战的盛况。然而,AI时代,这种大规模烧钱获得胜利的玩法还行得通吗?

国产大模型“以厘计价”

降价在商业世界里并不新奇,无非是“降价促销”、“以价换量”。OpenAI 已经多次降价,从 GPT-4 到 GPT-4 Turbo,其输入价格从 0.03 美元/千 tokens 降至 0.005 美元/千 tokens,降幅达 83%;输出价格从 0.06 美元/千 tokens 降至 0.015 美元/千 tokens,降幅达 75%。但国内大模型的降价幅度更为惊人。

5月11日,智谱 AI 大模型 GLM-3Turbo 的调用价格从 0.005 元/千 tokens 降至 0.001 元/千 tokens,降幅 80%。5月15日,字节跳动宣布豆包通用模型的企业市场推理输入价格降至 0.0008 元/千 tokens,降幅 99.3%。5月21日,阿里云将其主力模型 API 输入价格降至 0.0005 元/千 tokens,降幅 97%。百度和腾讯则更进一步,宣布部分大模型免费开放。

网友戏称,大模型正从“以分计价”向“以厘计价”迈进。

价格战提前来临?

大模型降价并不稀奇,但在商业化尚未跑通的情况下,价格战提前来临的原因何在?答案很简单:加快商业化落地。随着大模型参数越来越大,研发成本也随之增加。在巨大的成本压力下,大模型厂商不得不加紧寻找商业化途径。

大模型的训练和开发成本高昂。例如,GPT-4 Turbo 每年为 10 亿用户提供服务的算力成本可能超过两千亿人民币。百川智能创始人王小川表示,一个千亿级参数模型的单次训练成本预估在 3000 万至 5000 万人民币之间。高昂的研发成本成为 AI 商业化的枷锁,大规模降价成了最快速的落地方式。

此外,大模型技术的同质化竞争加剧。性能提升逐渐趋于收益递减,抢占用户成为现阶段最重要的目标。2024 年,大模型开始从“卷技术”向“卷应用”转变,商业化和落地应用成为大模型公司的主旋律,而降价为应用落地带来了极大推动力。

谁能扛住价格战?

并不是所有企业都能加入价格战。只有那些能够有效优化研发、训练和推理成本的大公司才有降价空间。大厂在这轮价格战中显然更具优势。

云计算公司在价格战中扮演重要角色。例如,阿里云提出在三年内占领国内大模型云计算市场的 90%。字节跳动则利用其 AI 能力试图打破旧有格局。这次降价也是这一战略的延续。

除了云服务,大厂还在基于大模型重构应用,打造超级应用。百度、阿里、字节和腾讯都在将大模型落地到各自的核心产品中,试图在 AI 时代再创辉煌。

相比之下,大模型创业公司则面临更大挑战。百川智能、零一万物等公司表示不打算参与价格战,更多精力放在超级应用上。但与财大气粗的大厂相比,创业公司显然处于劣势。

结语

尽管大模型价格战可能并不是明智的做法,但现实是,它已经发生了。在无法预见未来发展的情况下,先通过降价抢占用户成为最直接的策略。拿到用户,不管商业化能否跑通,至少在融资和并购上还有谈判资本。在这种情况下,大模型厂商降低开发者成本,吸引更多开发者参与,显然是必经之路。



Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1