当前位置:首页|资讯|百度|通义千问|编程

大模型价格没有最低只有更低,阿里百度字节杀疯了

作者:北京商报发布时间:2024-05-22

“1块钱可以买200万tokens,相当于5本《新华字典》的文字量”,听到阿里云智能集团资深副总裁刘伟光介绍通义千问降价详情时,业内人士窃窃私语“这是针对字节跳动吗?”

5月21日上午,阿里云宣布通义千问主力模型Qwen-Long,API(应用程序编程接口)输入价格从0.02元/千tokens降至0.0005元/千tokens,降幅97%,下午百度拿出两款主力大模型免费对外。

一般来说,一个中文词语、英文单词、数字、符号计为1个token。全网比价的话,字节跳动旗下的豆包大模型更新了价格清单,“1块钱能买到豆包主力模型的125万tokens,相当于三本《三国演义》”,加上Kimi、智谱近期分别在变现和定价上的新动作,这场大模型价格战不亚于一场618。

降价和免费

“不能说是字节跳动拉动了价格战,在它之前智谱大模型还调整了价格呢”,从业者樊帆(化名)也说不上大模型厂商是何时开打价格战的,但他和行业观察者在5月21日都明显感受到了各家的火药味。

“击穿全球底价”“性价比之王”,刘伟光介绍通义千问大模型降价细节时,背景上出现了几个大字,配合着大模型Qwen-Long和同类产品的价格对比图。

按照阿里云提供的信息,Qwen-Long是通义千问的长文本增强版模型,上下文长度最高达1000万。除了输入价格降至0.0005元/千tokens,Qwen-Long输出价格直降90%至0.002元/千tokens。相比之下,国外的GPT-4、Gemini1.5Pro、Claude3Sonnet以及国内的Ernie-4.0每千tokens输入价格分别为0.22元、0.025元、0.022元及0.12元。

几个小时后,百度也发了大招,宣布文心大模型的两款主力模型ENIRESpeed、ENIRELite全面免费,即刻生效。根据官方介绍,ENIRESpeed是百度2024年最新发布的自研大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。ENIRELite是百度自研的轻量级大语言模型,适合低算力AI加速卡推理使用。这两款大模型均支持客户向大模型进行8K-128K内容量的提问+回答。在官宣免费的推文中,百度智能云将输入和输出价格都用红色标注为“免费”。

向前倒推,字节跳动旗下的火山引擎在5月20日深夜更新了定价详情。根据火山方舟大模型服务平台公布的信息,按大语言模型后付费模式,即以tokens使用量(输入文本+输出文本)计费,每小时出账,按量后付费,其中Doubao-lite-32k模型的免费额度是50万tokens,推理服务输入价格是0.0003元/千tokens,输出价格是0.0006元/千tokens。

最新技术才收费

用低价吸引客户的不止阿里云、百度和字节跳动。

北京商报记者登录腾讯云官网发现,混元生文大模型hunyuan-pro、hunyuan-standard-256k等4个产品正在6.9折促销,混元生图大模型1000、1万次、10万次资源包的优惠力度分别是8折、7.5折、7折。

还有更隐秘的信号。5月6日,幻方量化旗下DeepSeek发布第二代MoE(专家模型)DeepSeek-V2,API定价每百万tokens输入1元、输出2元(32K上下文),价格为GPT-4-Turbo的近百分之一。5月13日,智谱大模型开放平台上线新的价格体系,入门级产品GLM-3Turbo模型调用价格下调80%。随后OpenAI推出的GPT-4o,价格为GPT-4Turbo的一半,输入、输出每百万tokens收费5美元、15美元。

回看国内,上周豆包大模型用1块钱买125万tokens,相当于三本《三国演义》的对比,让大模型价格战出了圈。

谈到此次大模型价格战,易观合伙人、易观企业数字化中心总经理张澄宇告诉北京商报记者,“大模型的发展已经超越了传统的摩尔定律框架,性能迭代速度非常快,通常每半年左右性能就会翻倍,并且这一周期仍在缩短,这是前所未有的。大模型的成本下降不仅依赖于硬件成本的降低,还涉及到算法优化和模型训练、部署技术的进步。例如,通过剪枝、量化和知识蒸馏等技术,可以显著降低计算复杂度和资源消耗”。

文渊智库创始人王超也拿大模型的发展和摩尔定律类比,他认为“大模型一定会降价,只有最新的技术才能收费”。

客户越多越吃亏?

token,即自然语言模型处理文本的最小单位。“长文本只是大模型竞争的维度之一,用字典、西游记的文本量来比拼是营销手段,卷token的性价比实际上是无效的,应该卷多模态、识别、理解等。目前中国大模型都是赔钱营销,谁的用户规模大,谁亏损的更多”,王超告诉北京商报记者。

针对大模型客户规模,北京商报记者分别向阿里云、百度智能云和火山引擎方面提问,截至发稿,阿里云和百度智能云未透露具体数据,火山引擎相关负责人告诉北京商报记者,“豆包大模型已经与手机、电脑、汽车、金融、消费等领域的头部厂商建立合作,但由于产品刚刚正式发布,还处于非常早期阶段,企业客户规模尚小”。

“阿里云处在非常尴尬的位置,庞大的用户,造成它在价格决策、补贴时,没法像其他厂商一样灵活,即便它一再宣扬降价,但实际上很容易被船小好调头的对手超越”,王超向北京商报记者表示。

张澄宇的观点是“价格竞争是动态变化的,大模型的核心客群不是价格敏感型用户。竞争关键在于谁能更好地平衡成本和用户价值”。

对于Kimi尝试的“打赏”变现模式,业内人士多表示肯定,“这意味着大模型厂商正在探索多样化的变现方式,不仅局限于传统的会员订阅和API调用收费,还探索通过用户互动和增值服务实现变现,这有助于加速行业商业闭环的实现”,张澄宇说。

结合正在升级的价格战,王超一针见血:“大模型一定会对C(用户)端收费。如果不敢收费,要么对自己的技术没有信心,要么对未来的判断失去了方向。打价格战,会让公司对C端收费越来越推迟,也会推迟公司造血功能,只能依赖公司的融资去获得客户。互联网免费后收费打法,不适合大模型竞争。”

北京商报记者魏蔚


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1