当前位置:首页|资讯|MaaS

价格战之后,智谱来到商业化的下一站

作者:雷锋网发布时间:2024-06-19

「雷峰网消息」刚刚过去的 5 月里,中国 AI 大模型领域掀起一场价格战,激起行业热议。

这次价格战的两股势力分别是互联网大厂和大模型创业公司,以字节、阿里云、腾讯和智谱为主要参战代表。

面对这场突如其来的价格战,大家讨论最多的是,创业公司很难承受得住这样的比拼。

相比互联网大厂底子厚、钱多,大模型创业公司跟大厂打价格战,风险很大,一些人认为「价格战」是大模型玩家的淘汰加速赛。

价格战的目的是抢夺用户,但模型能力才是用户留存的主要因素——钱花了、降低了用户使用成本、噱头有了、吸引了新用户同时也维护住了老用户,但最终的目标,「用户留存」依然不会有多少,反倒因小失大。

在过去的商业长河中,价格战并不少见,当一项技术走向成熟,随着大量玩家入局,竞争加剧,「价格战」往往是殊途同归。

但对比过去的技术浪潮,大模型的价格战似乎开始得早了些。

大模型领域的星辰大海是 AGI,在看到最后的曙光之前,各大模型公司最重要的事情是积累更多筹码、努力留在牌桌上:将大部分资源放在模型能力突破这条主线上,一边努力探索稳定的商业模式,趁早拥有造血能力。

价格战的背后

5 月,智谱将入门级产品 GLM-3-turbo 价格从 5 元每百万 tokens 降至 1 元,降幅达到了80%。

此时每百万 tokens 价格还没下「元」的范围,直到大厂进入。

字节率先点火,宣布将豆包主力模型(豆包通用模型pro-32k)定价为 0.0008 / 千 tokens(即0.8元/百万tokens),做到了「从分到厘」的极致低价,震惊整个行业。

随即,阿里云不甘示弱,将通义千问 GPT-4 级主力模型 Qwen-Long 的输入价格从 0.02 元/千 tokens 降至 0.0005 元/千 tokens,直降 97%,意味很明显,就是要比字节更低。

在行业还没从这突然起飞的价格战中反应过来,百度直接击穿底价,宣布文心大模型两大主力模型全面「免费」,整场价格战被推向高潮。随后科大讯飞、腾讯也加入战局、宣布全面下调大模型价格。

纵观此次价格战,由于大厂的加入,不失疯狂,但仍然保持理智——在百度直接用「免费」击穿底价后,大模型初创公司并没有跟进,此次价格战最终就止步于大厂,参战的几方也都没有恋战,一轮之后便熄火。

用户增长不确定,盲目价格战使得大模型厂商的风险敞口不断扩大,由此带来打价格战的最坏情况:本就不大的盈利空间被不断压缩。

其实,整个大模型行业,包括国外OpenAI、谷歌都在降价,主要原因:

(1)模型能力正在趋同,自 GPT-4发布以来,大家都在朝 GPT-4 看齐,但谁都没有突出优势。能力趋同之下,不得不放弃收费,靠降价/免费来争夺用户,保住底盘,甚至 OpenAI 将 5 月发布的GPT-4o 免费。

(2)大模型的边际收益或许正在持续走低。有研究称,从 GPT-2 到 GPT-4 甚至 GPT-4 Turbo 的性能变化,已经出现了性能递减的迹象。在收益递减的背景下,意味着处理同样的任务,开发者的实际成本是上升的。为了保住用户,大模型厂商不得不推出有吸引力的对策,包括提供更小的蒸馏模型,以及直接降价。

回到国内大模型厂商,模型能力如果达不到 OpenAI 的水平,一味拼价格并不是一个好的策略,甚至会被困住。

一位大模型创业者称,陷入价格战会让那些技术不够领先、商业模式不清晰、融资能力跟不上的公司迅速被淘汰。

因此,在这种情况下,要实现最终的 AGI,中国大模型厂商必须保存实力,探索健康的发展模式:努力实现模型技术突破、探索稳定的商业模式才是破局之道。

而放眼整个国内,唯有智谱在这两个维度都发展得比较平衡。

AI 国家队的筹码

粗暴点说,当下大模型公司遇到的大多数问题,包括模型表现不好、找不到超级应用、落地场景少、用户留存差、商业模式不清晰等都可以归结到模型技术还有待更多突破。

因此,技术上追赶 OpenAI ,依然是中国大模型当下最迫切的任务。

今年 1 月,智谱推出第四代基座大模型 GLM-4,性能逼近 GPT-4,智谱取得的这一进展比国内其他大模型厂商都早,可以说一直以来,国内大模型的技术突破主要看智谱。同时,过去一年里智谱以平均每 3 个月迭代一次的速度更新模型能力,领先于其他厂商。

各大模型公司参与价格战的目的是抢占用户,基础模型之外,开源生态也是大多数厂商不敢轻易放弃的一块。

过去一年里,智谱的ChatGLM-6B 开源模型受到了广泛关注和认可。今天召开的智谱小型品牌活动OpenDay上,智谱又推出了第四代 GLM 系列开源模型:GLM-4-9B,包括:基础版本 GLM-4-9B(8K)、对话版本 GLM-4-9B-Chat(128K)、超长上下文版本 GLM-4-9B-Chat-1M(1M)和多模态版本 GLM-4V-9B-Chat(8K)。

和之前发布的开源模型ChatGLM-6B相比,GLM-4-9B参数略多,预训练计算量增加了 5 倍,但仍然能在大多数用户的显存上运行。

经过技术升级后,GLM-4-9B 模型具备了更强大的推理性能、更长的上下文处理能力、多语言、多模态和All Tools等突出能力。

基于强大的预训练基座,GLM-4-9B 的模型中英文综合性能相比 ChatGLM3-6B 提升了 40%,尤其是在中文对齐能力 AlignBench,指令遵从 IFeval,工程代码 Natural Code Bench 方面都取得了非常显著的提升。

GLM-4-9B对比训练量更多的 Llama 3 8B 模型丝毫没有逊色,英文方面有小幅领先,中文学科方面更是有着高达 50% 的提升。

GLM-4-9B 模型的上下文从 128K 扩展到了 1M tokens,这意味着模型能同时处理 200 万字的输入,大概相当于 2 本红楼梦或者 125 篇论文的长度。GLM-4-9B-Chat-1M 模型在 1M 的上下文长度下进行了“大海捞针”实验,展现出了出色的无损处理能力。

同时,GLM-4-9B 支持包括汉语、英语、俄语、西班牙语、德语、法语等多达 26 种语言。

过去智谱通过开源积累了一批用户,其开源模型累计下载量高达 1600 万次,成为全球大模型开源生态中一股不可忽视的中国力量,第四代GLM-4-9B 开源模型的推出,进一步巩固了智谱在开源侧的影响力。

在当前大模型发展阶段,持续训练出好的基座模型+持续开源才是吸引用户、创建生态最稳健的策略,从而进一步实现用户留存。

放眼国内,智谱不仅在模型能力上不断取得突破,持续推出更先进的基座模型,在 B 端商业化探索上也至少领先行业半年:智谱从去年 3 月开始探索 B 端商业化(MaaS 模式),根据智谱此前官方消息,过去一年,智谱已经有2000+生态合作伙伴、1000+大模型规模化应用、与200多家企业进行了深度共创。

目前,智谱 MaaS 开放平台已经拥有 30 万企业客户和开发者、400 亿 Tokens 日均调用量 、过去6个月API每日消费量增长了50倍以上。

在此次价格战中,智谱并没有盲目跟进,而是迅速基于 MaaS(模型即服务)商业策略,并往后走到下一站——卷用户体验。

智谱GLM大模型首次推出一键微调,包括LoRA微调和全参微调。用户只需要三步,准备训练数据、创建微调任务、部署微调模型就能拥有自己的私有模型。

使得用户可以用更低的成本访问和门槛使用大模型,也促进了优秀的 AI 应用爆发。OpenDay 上,小米小爱总经理、AiPPT创始人等到场,讲述了基于GLM大模型做企业应用及创业项目的经历。

对于价格战,智谱CEO张鹏的态度是:打价格战,我们不怕,我们不仅打得起,而且不亏钱。这种底气是基于智谱基于自身强大的 GLM 模型能力,以及逐步完善的商业体系、团队的商业策略。

近期针对MaaS 平台智谱做出一系列价格下调。

张鹏表述,此次价格调整依然是智谱基于技术突破、效率提升和成本控制的综合结果,是符合自身商业化策略,合理的价格调整。

后记

当价格战最猛的时候,有人感叹“大模型这么不值钱吗”“大模型卖出了白菜价”,盲目价格战其实是对大模型行业的一种损伤——压缩了大模型厂商的盈利空间,打乱了大模型行业健康发展的节奏,更严重的是,一旦整个行业被拉进价格战的漩涡,中国大模型将会偏离主要目标,离 AGI 越来越远;同时价格战也加重了外界对大模型的质疑,怎么花费如此昂贵成本训练出来的大模型,突然就这么便宜了呢?这些厂商是不是闹着玩呢?对大模型的价值产生怀疑。

好的模型应该物有所值,一个行业健康发展的前提是,既能让大多人都能用得起大模型,实现技术普惠,也能让大模型厂商有盈利的空间。

价格战往往只是拍拍脑袋就能做的决策,而对于当下中国大模型来说,探索多样化的发展路径,并且沿着这些路径坚持下去,才是中国大模型破局之道。

而对于当前的大模型玩家来说,如何在有限的资源、时间里,积累更多的筹码:融资、领先的技术、稳定的商业模式,才能继续留在牌桌上,拥有更多机率实现共同的 AGI 星辰大海。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1