出品 | 搜狐科技
编辑 | 梁昌均
大模型价格战继续卷!在今日的阿里云智领者峰会上,阿里云宣布,通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。
这意味着,1块钱可以买200万tokens,相当于5本《新华字典》的文字量。这款模型最高支持1千万tokens长文本输入,降价后约为GPT-4价格的1/400,击穿全球底价。
相比之下,国内外厂商,如OpenAI的GPT-4、谷歌的Gemini1.5 Pro、Anthropic的Claude 3 Sonnet,以及百度文心4.0每千tokens输入价格分别为0.22元、0.025元、0.022元及0.12元,均远高于Qwen-long。
Qwen-Long是通义千问的长文本增强版模型,性能对标GPT-4,上下文长度最高达1千万。除了输入价格降至0.0005元/千tokens,该模型输出价格也直降90%至0.002元/千tokens。
此外,阿里通义其余三款商业化模型,以及5款开源模型也均大幅降价或限时7天免费,但相比Qwen-Long降幅较低。整体来看,输入价格降幅基本都高于输出价格降幅。
在阿里大模型降价后,百度在今日下午也宣布文心大模型两大主力模型全面免费,包括ERNIE Speed和ERNIE Lite。
据百度智能云官网,ERNIE Speed是百度今年最新发布的自研高性能大语言模型,适合作为基座模型进行精调,用于处理特定场景问题。ERNIE Lite是百度自研的轻量级大语言模型,适合低算力AI加速卡推理使用。这两款模型均支持训练调优与部署调用,但对于通用能力更强的文心3.5和文心4.0大模型,百度尚未有关降价措施。
近日,国内多家大模型纷纷开启大降价。上周,字节跳动对外发布豆包大模型,其中豆包通用模型pro-32k版,模型推理输入价格仅为0.0008元/千Tokens,而市面上同规格模型的定价一般为0.12元/千Tokens,比行业便宜99.3%。豆包通用模型pro-128k版,模型推理输入价格为0.005元/千Tokens,比行业价格低95.8%。
这意味着,字节跳动把Token的定价降低了一个数量级,从以分计价进入以厘计价时代。根据火山引擎公布的价格计算,1元就能买到豆包主力模型的125万Tokens,大约是200万个汉字,相当于3本《三国演义》。
当时,豆包大模型的价格远低于国内外其它主流大模型。但随着阿里云大模型降价,豆包失去价格优势。更早之前,智谱AI也宣布降价,个人版 GLM-3Turbo模型产品的调用价格从5元/百万tokens降低至1元/百万tokens。
目前,随着大模型性能持续提升,推理成本高被视为应用落地的关键因素。阿里云智能集团资深副总裁、公共云事业部总裁刘伟光就表示,阿里云这次大幅降低大模型推理价格,希望加速AI应用的爆发,预计未来大模型API的调用量会有成千上万倍的增长。