IT时报记者 郝俊慧
没有最低,只有更低!最近一周,大模型“卷起”价格战。
5月21日,阿里云宣布降价,通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。这意味着,1块钱可以买200万tokens,相当于5本《新华字典》的文字量。
自5月14日OpenAI宣布正式推出新一代旗舰AI模型——GPT-4o,并将API价格下降50%以来,短短一周内,国产大模型智谱大模型、字节跳动豆包大模型先后官宣降价,降幅都在80%~90%之间。其中,豆包将价格降到了“以厘计费”,一块钱能买125万Tokens,相当于三本《三国演义》。
如今,阿里云再进一步将价格打到“骨折”。
“未来,大模型就是云”,宣布降价消息的武汉AI智领者峰会现场,阿里云智能集团资深副总裁、公共云事业部总裁刘伟光的这句话,或许正是诸多厂商不得不跟进的原因。
业界普遍认为,随着大模型性能逐渐提升,AI应用创新正进入密集探索期,但推理成本过高依然是制约大模型规模化应用的关键因素。大幅降低大模型推理价格的意义在于,降低AI应用开发的门槛,鼓励开发者加速进入赛道,加速应用端对AI产品的适应性和依赖性。
阿里云预计,未来大模型API的调用量会有成千上万倍的增长,公共云+API将成为企业使用大模型的主流方式。
通义千问本次降价共覆盖9款商业化及开源系列模型。
不久前,OpenAI的Sam Altman转发了Chatbot Arena榜单来印证GPT-4o的能力,其中全球排名前20的模型中,仅有的三款中国模型都是通义千问出品,包括Qwen-Max、Qwen1.5-110B、Qwen1.5-72B,此次全部降价。
其中,不久前发布的通义千问旗舰款大模型Qwen-Max,API输入价格降至0.04元/千tokens,降幅达67%。Qwen-Max是目前中文大模型中的“佼佼者”,在权威基准OpenCompass上性能追平GPT-4-Turbo,并在大模型竞技场Chatbot Arena中跻身全球前15。
Qwen-Long是通义千问的长文本增强版模型,性能对标GPT-4,上下文长度最高达1千万。除了输入价格降至0.0005元/千tokens,Qwen-Long输出价格也直降90%至0.002元/千tokens。相比之下,国内外厂商GPT-4、Gemini1.5 Pro、Claude 3 Sonnet及Ernie-4.0每千tokens输入价格分别为0.22元、0.025元、0.022元及0.12元,均远高于Qwen-long。
在“价格战”这条路上,阿里云一向是先行者。
今年2月29日,阿里云举起“价格屠刀”,对旗下100多款云产品、500多个产品规格,平均降价幅度超过20%,最高降幅达55%,涉及覆盖计算、存储、数据库等所有核心产品。此后,多家云商“被迫”跟进。
此次,阿里云依然是大模型降价潮的第一梯队。相较“后来者”国产大模型厂商,出身“云服务商”的阿里云具有先天优势。
刘伟光透露,公共云的技术红利和规模效应,带来巨大的成本和性能优势。阿里云基于自研的异构芯片互联、高性能网络HPN7.0、高性能存储CPFS、人工智能平台PAI等核心技术和产品,构建了极致弹性的AI算力调度系统,结合百炼分布式推理加速引擎,大幅压缩了模型推理成本,并加快模型推理速度。
从实际测试来看,即便是同样的开源模型,在公共云上的调用价格也远远低于私有化部署。以使用Qwen-72B开源模型、每月1亿tokens用量为例,在阿里云百炼上直接调用API每月仅需600元,私有化部署的成本平均每月超1万元。
此外,云厂商天然的开放性,能为开发者提供最丰富的模型和工具链。阿里云百炼平台上汇聚通义、百川、ChatGLM、Llama系列等上百款国内外优质模型,内置大模型定制与应用开发工具链,开发者可以便捷地测试比较不同模型,开发专属大模型,并轻松搭建RAG等应用。从选模型、调模型、搭应用到对外服务,一站式搞定。