作者:一号
编辑:美美
AI大模型的价格要被打下来了。
5月15日,字节跳动在火山引擎原动力大会上正式发布豆包大模型。它日均处理1200亿Tokens文本,生成3000万张图片。但豆包大模型在过去一年所取得的成就并非发布会上最亮眼的。
实际上,大模型的价格才是此次发布会最大的亮点。据介绍,豆包主力模型在企业市场的定价只有0.0008元/千tokens,0.8厘就能处理1500多个汉字,比行业便宜99.3%。
外界普遍认为,这是字节跳动率先在大模型领域发起了“价格战”。
国产大模型开打“价格战”
以豆包通用模型pro-32k版为例,模型推理输入价格为0.0008元/千Tokens,而市面上同规格模型的定价一般为0.12元/千Tokens,是豆包模型价格的150倍。可以说,豆包大模型的定价,成功地把大模型价格从“分”时代拉到了“厘”时代。
而在5月11日,智谱 AI 大模型开放平台上线了新的价格体系,新注册用户可以获得额度从500万 tokens 提升至2500万 tokens,并且个人版 GLM-3Turbo模型产品的调用价格从5元/百万tokens降低至1元 / 百万 tokens。
阿里云则是在今日抛出重磅炸弹,通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,即0.5厘/千tokens,紧追豆包大模型的定价,来了个大跳水,直降97%,击穿了全球底价。
而百度这边,则是宣布文心大模型两大主力模型,分别支持8K和128k上下文长度的ERNIE Speed、ERNIE Lite全面免费。可以说,国产AI大模型之间的首波“价格战”,正在打响。国内大模型已从参数规模、性能指标“卷”到了token价格,从以分计价发展到以厘计价。
大模型“卷”价格是必然
据国家数据局数据,国内10亿参数规模以上的大模型数量已经超过了100个。而除了少数几个大模型,例如文心一言、通义千问、豆包ai以及Kimi Chat等,能够在To C市场上有一定的知名度,其他绝大部分的大模型都尚未能在To C市场上找到自己的位置。
因此,To B市场成为了大部分大模型厂家着力占领的市场。然而,To B市场的游戏规则从未改变,面对大量同质化的大模型,“卷”价格几乎是必然发生的事情。在哪家便宜就薅哪家的羊毛的心理驱动下,你不降价,客户就会跟着别人跑。在价格战之后,服务将是下一个开“卷”的点,直至最终留下模型效果好、价格低、服务好的企业。
大模型价格战的打响,意味着在去年上半年还是蓝海的大模型行业,如今已是红海。之所以将豆包大模型的价格定到以“厘”计价。字节跳动火山引擎总裁谭待是这么说的,“今年是大模型提升应用之年,需要将AI相关生态建立起来,但是创新的风险成本很高,只有把试错成本降低,才能实现更大范围的普及”。
2023年,中国AI大模型行业市场规模为147亿元,预计2024年将增长至216亿元。中国用户数量庞大、场景多样,大模型之间打响“价格战”,将有利于国产大模型的生存和市场的持续发展。因此,无论是市场驱动还是促进行业发展,国产大模型之间“卷”价格几乎是必然会发生的事情。
“价格战”加速行业渗透
加速行业渗透,是大模型商业化的最后一公里。
尽管大模型“价格战”已经打响,但并不意味着国内大模型市场已经到了发展后期。实际上,国内大模型市场仍在发展的初期阶段,“池塘还在培养的过程”。大模型厂家之间应当通过技术提升和改革来降低成本,而不能仅仅为了占领市场而降价,让价格低于企业实际成本,从而陷入恶性竞争的循环,让价格战失了“底线”。
当前大模型“价格战”,应当以实现大模型应用落地,让更多人受益为主,而非占领市场,以亏损来换收入并不可取。在将大模型普及之后,企业需要继续以提升大模型能力为目标,以产品力去征服客户。
与此同时,国产大模型产业实际上仍面临算力瓶颈的问题。国内高性能AI芯片市场受进口限制和技术瓶颈的双重影响,这将成为制约大模型产业发展的一个重要因素。“价格战”或许也将促进自主高性能AI芯片的研发以及优化算力配置等。