当前位置:首页|资讯|通义千问|AGI

通义千问主力模型降价高达85%,阿里云:还不够低

作者:火星TIME发布时间:2024-12-19

大模型推理成本指数级下降,已经远远超过摩尔定律。”9月19日,2024云栖大会上,阿里巴巴集团CEO、阿里云智能集团董事长兼CEO吴泳铭在主题演讲中提到,推理成本直接决定了大模型应用爆发的快慢,阿里云会努力把成本继续降下去。

以通义千问为例,过去一年来,通义千问API在阿里云百炼上的调用价格下降了97%,百万Tokens调用花费最低已经降到了5毛钱

早在今年5月,在火山引擎率先发起大模型价格战后,阿里云也曾对旗下9款模型降价,其中主力模型Qwen-Long的输入价格从0.02元/千tokens(词符)降至0.0005元/千tokens,直降97%,输出价格也降低90%,从0.02元/千tokens降至0.002元/千tokens。当时这一定价就已经低于豆包大模型。

不到4个月后,如今阿里云再次对百炼平台上的三款通义千问主力模型进行了降价:Qwen-Turbo价格直降85%,低至百万tokens 0.3元;Qwen-Plus和Qwen-Max分别再降价80%和50%。同时,阿里云百炼平台还为所有新用户免费赠送超5000万tokens及4500张图片生成额度。

据官方介绍,降价后的Qwen-Plus性价比达到业界最高,同等规模较行业价格低84%。在推理能力上,Qwen-Plus追平GPT4,可应用于复杂任务,是效果、速度及成本均衡的最优选择。

相比豆包大模型,调价后的通义千问入门模型推理价格低了一半,进阶版更是较豆包大模型低了一个数量级。

不同于5月大模型价格战下的被动应对,如今技术驱动下带来的大模型推理成本下降,进一步降低了各厂商推出的新一代大模型定价。

就在两周前的9月5日,腾讯发布的新一代万亿参数大模型“混元Turbo”,相比前代模型,推理效率提升100%,解码速度提升20%,推理成本降低50%。性能显著提升,但是输入和输出价格却只有前代模型的一半(输入价格为0.015元/千tokens,输出价格为0.05元/千tokens)。

2024世界人工智能大会期间,百度宣布文心旗舰款模型ERNIE 4.0和ERNIE 3.5大幅降价,ERNIE Speed、ERNIE Lite两款主力模型持续免费。其中,ERNIE 4.0 Turbo输入输出价格分别低至0.03元/千Tokens、0.06元/千Tokens。

在现阶段,价格的确直接影响着大模型的应用,AI大模型降价有利于吸引开发者和企业,构筑模型生态,同时有望推动下游涌现出更多大模型相关项目或应用。

阿里云CTO周靖人称,希望通过底层的技术创新,将大模型推理价格尽可能降低,以此提升提升AI在各行各业的渗透率,“如果现在我们仍要把模型推理维持高定价,开发者没法去做大模型应用创新”。

阿里云副总裁张启也表示,今天的大模型推理价格还不够低,只有降到足够低,应用才能成长起来,国外包括OpenAI在内的大模型厂商也在降价,只是节奏有一些区别。

价格下降和性能提升的双重助力下,阿里云的用户规模也迎来大幅增长。

自5月首次宣布降价后,阿里云百炼付费客户数较上一个季度增长超过200%,大批企业和开发者放弃私有化部署,选择直接在百炼上调用各类AI大模型。目前,阿里云百炼已服务超30万客户,包括一汽、金山、猎聘、哈啰集团、国家天文台等众多企业和机构。

吴泳铭提出,AI最大的想象力绝对不是在手机屏幕上做一两个新的超级App,而是通过渗透数字世界、接管数字世界,并改变物理世界,物理世界的大部分事物都会具备AI能力,形成下一代的具备AI能力的全新产品,并与云端AI驱动的数字世界连接产生协同效应。

在吴泳铭看来,“我们不能只停在移动互联网的视角看未来”,“生成式AI的崛起,带来了质的飞跃,AI不再仅仅局限于感知,而是首次展现了思考推理和创造的力量”。

英伟达创始人黄仁勋也在近期的公开分享中表达了类似的观点:“科技走入正反馈循环,AI正在设计下一代AI,进展速度达到了摩尔定律的平方。这意味着在接下来的一到两年内,我们将会看到惊人的、意想不到的进步。”

谈及通用人工智能(AGI)的发展,吴泳铭指出,尽管过去22个月AI发展的速度超过任何历史时期,但目前仍处在AGI变革的早期阶段。“这才刚刚开始,要实现真正的AGI,下一代模型需要具备更大规模、更通用、更泛化的知识体系,全世界先进模型竞争的投入门槛,将达到数十亿、数百亿美金的级别。”


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1