当前位置:首页|资讯|通义千问

阿里通义千问主力模型直降97%,大模型赛道也卷起来了

作者:雷达财经发布时间:2024-05-22

大模型赛道,开启残酷价格战。

5月21日,阿里云宣布通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。随后百度智能云也宣布,百度文心大模型的两款主力模型ENIRE Speed、ENIRE Lite全面免费,立即生效。

此前,字节跳动已宣布旗下豆包主力模型在企业市场的定价只有0.0008元/千Tokens,0.8厘就能处理1500多个汉字,比行业价格便宜99.3%。除此此外,幻方、智谱也官宣了新的价格体系。

这样的趋势,同样也在国外发生。OpenAI在刚刚结束的春季功能更新会上,宣布了其最新模型GPT-4o,不仅性能有大幅提升,所有用户均可免费使用。

业内普遍的认识是,此轮价格战的主要目的是把“蛋糕做大”,推动大模型使用进入快速增长阶段。但对于一些规模较小、实力较弱的模型提供商来说,价格战往往会导致利润空间的压缩,可能会在这场竞赛中被淘汰“出局”。

大模型掀起“价格战”

经过2023年大模型领域的摸索,由ChatGPT带热的AI大模型,在今年走到了终端应用时代。随着竞争加剧,单纯的技术竞争之外,“价格力”成为国内外厂商比拼的关键一环。

其中广受瞩目的是,5月14日OpenAI召开春季发布会,正式推出新一代旗舰AI模型“GPT-4o”,不仅在功能上大幅超越GPT-4 Turbo,在价格上更是带来惊喜。

据官方介绍,新模型GPT-4o用户不用注册,功能全部免费。在此之前,ChatGPT的免费用户只能使用GPT-3.5。而更新后,用户可以免费使用GPT-4o来进行数据分析、图像分析、互联网搜索、访问应用商店等操作。

当然,免费的前提被限制在一定的消息数量上,一旦超过规定数量,免费用户的模型将被切换回GPT-3.5。而付费用户将获得更高的消息数量,至少是免费用户的5倍。

国产大模型在价格竞争方面,也不甘落后。5月6日,私募巨头幻方量化旗下的AI公司推出了第二代MoE模型DeepSeek-V2,其API(应用程序编程接口)定价为每百万token输入1元、输出2元(32K上下文),仅是GPT-4的近百分之一水平。

5月11日,智谱大模型官宣新的价格体系,入门级产品GLM-3 Turbo模型调用价格从5元/百万Tokens降至1元/百万Tokens,降幅高达80%。

随后的5月15日,首次对外公布大模型产品的字节跳动,就主动打起了价格战。据悉,字节发布的自研大语言模型“豆包大模型”,其豆包Pro 32k模型正式定价是1千Tokens 0.8厘,比行业的价格降低99.3%;豆包Pro 128k模型正式定价为是1千Tokens5厘钱,较行业价格降低了95.8%。

对此,火山引擎总裁谭待解释称,一方面,字节可以在大模型产品上做到低价,在模型结构、训练、生产等技术层面有很多优化手段能够实现降价,另一方面则是因为市场对降价呼声比较大。

字节跳动之后,其他互联网大厂纷纷跟进。5月21日,阿里云也加入大模型价格战,宣布通义千问9款商业化和开源模型降价。

据了解,这9款大模型整体推理输入价格降幅为67%-97%,有2款开源模型提供七天免费优惠。

其中,通义千问GPT-4级主力模型Qwen-Long的API输入价格,从0.02元每千tokens(大模型文本中的最小单位)降至0.5厘每千tokens,降幅为97%。

这意味着,1块钱可以买200万tokens,相当于5本《新华字典》的文字量。此外,不久前发布的通义千问旗舰款大模型Qwen-Max,API输入价格降至0.04元/千tokens,降幅达67%。

仅仅数小时之后,5月21日下午,百度在其公众号发文称,文心大模型两大主力模型ERNIE Speed和ERNIE Lite全面免费。

百度这两款大模型发布于今年3月,支持8K和128K上下文长度。按照过去的定价,ERNIE Lite输入0.003元/千token,输出0.006元/千token。ERNIE Speed价格为输入0.004元/千token,输出0.008元/千token。

至此,群雄竞逐的大模型价格战正式进入白热化。

厂商忙于“做大蛋糕”

在大模型这样“烧钱”的行业,偏偏打起了价格战,原因何在?加快商业化落地或是主要目的。

“池塘有多大,鱼就有多大,现在整个池塘还在培养的过程。”谭待表示,目前大模型仍处于百家争鸣的状态,需要大家一起实现应用落地、降低成本,让更多人受益。

阿里云智能集团资深副总裁、公共云事业部总裁刘伟光也称,阿里云这次大幅降低大模型推理价格,目的就是希望加速AI应用的爆发。阿里云预计未来大模型API的调用量会有成千上万倍的增长。

目前来看,相比缺乏付费意愿的C端用户,B端企业服务仍是大模型目前最主流的商业化路径。

国际数据公司IDC曾在2023年四季度开展过一次AI应用调研,结果显示,在100家受调企业中,对生成式AI完全没有规划的企业比例只有7%,这也意味着超九成被调查企业已布局了AI应用。

5月16日,在百度2024年第一季度财报电话会上,百度创始人、董事长兼首席执行官李彦宏透露,继上季度与中国三星、荣耀合作后,本季度,小米、OPPO、vivo等手机厂商均接入文心大模型API。

李彦宏表示,大模型的合作领域还在从手机向PC和电动汽车领域拓展,联想和蔚来汽车也在季度内与达成合作。

其中率先投入使用的生成式AI,已帮助相关企业实现增收。爱奇艺第一季度在线广告营收15亿元,同比增长6%。其中,效果广告营收同比两位数增长。这主要得益于生成式AI赋能广告提质增效,AI制作广告素材带动游戏、短剧等行业广告主投资回报率提升超50%。

字节跳动的AI路线图一直颇为神秘,从目前披露的信息来看,豆包大模型已经在字节跳动内部多个业务场景落地,包括基于豆包大模型打造AI对话助手“豆包”、AI应用开发平台“扣子”、互动娱乐应用“猫箱”,以及星绘、即梦等AI创作工具,并把大模型接入抖音、番茄小说、飞书、巨量引擎等50余个业务。

目前,豆包App已在苹果APP Store和各大安卓应用市场可下载。

值得一提的是,声称性能已居国内第一梯队的腾讯混元大模型,同样将“产业实用”作为发展大模型的核心战略。

腾讯集团高级执行副总裁、云与智慧产业事业群CEO汤道生介绍称,腾讯发展大模型的核心战略是“产业实用”,“构建起离产业最近的AI,助力千行百业智能化升级”。

据了解,腾讯云智能行业大模型也已在金融、医疗、教育、汽车、能源等20多个行业落地。此外,腾讯还将于5月30日发布基于混元大模型、面向C端的助手APP“腾讯元宝”。

截至目前,腾讯大模型似乎还未参与到眼下的“价格战”中来。

成本困境仍有待解决

在不断击穿底价甚至免费的“激进”策略下,大模型厂商“跑马圈地”的意图明显。但在价格降至“白菜价”后,还能否覆盖掉昂贵的训练成本?

从成本的角度来看,大模型的训练和维护成本非常高昂。据媒体报道,Gemini Ultra的训练成本高达1.91亿美元,而GPT-4的开发成本估计为7800万美元。

除此之外,大模型提供服务时还大量消耗其他资源。据《纽约客》杂志引援国外研究机构报告,ChatGPT每天要响应大约2亿个请求,在此过程中消耗超过50万度电力。

加州大学河滨分校研究显示,ChatGPT每与用户交流25-50个问题,就可消耗500毫升的水。

毫无疑问,大模型的高昂成本增加变现难度。在行云集成电路创始人季宇看来,大模型的商业落地与早期互联网时代相比区别很大,边际成本仍然非常高。大模型每增加一个用户,基础设施需增加的成本是肉眼可见的,一个月几十美元的订阅费用根本不足以抵消背后高昂的成本。

在此背景下,目前市场上主要的大模型参与者,都在通过技术优化等方式不断推动训练成本的降低,以加速大模型的商业化落地。

以字节豆包大模型为例,谭待坦言降价的背后主要原因是技术上可以实现,未来还有很多手段继续降低成本。

据其介绍,火山引擎在技术上有非常多优化手段,可以降低大模型成本,此外在工程上可以通过分布式推理的形式将底层算力使用得更好;另外,在混合调度方面,可以把不同负载作为混合调度,这样的成本也大幅下降。

银河证券研报认为,DeepSeek-V2提升数据集质量及优化架构,大幅提升训练效率,降低训练成本,训练所需计算量约为GPT-4的1/20,但性能上基本相差无几。

不过,并非所有人都认同简单粗暴的“价格战”打法。“大模型从训练到服务都很昂贵,算力紧缺是这一赛道的集体挑战,行业应当共同避免陷入不理性的ofo式流血烧钱打法,让大模型能够健康地蓄能长跑。”零一万物 CEO 李开复称。

北京智源人工智能研究院院长王仲远也认为,大模型卷价格是一把双刃剑,价格降低有利于产业普及和推广,但如果价格低于企业实际成本,将扰乱市场。

更值得关注的是,对于资金雄厚的大厂而言,降价将能够扩大用户群体,从而进一步平衡收入和成本。但对于资金紧张的创业公司,价格战可能就是让企业淘汰出局的致命一击。

时至今日,大模型仍属于新兴事物,其商业化是一个复杂且充满挑战的过程,企业想要跳出“烧钱”的怪圈还需更多的尝试。

本文来自微信公众号“鸿途FLY”(ID:hongtufly),作者:肖洒,编辑:深海,36氪经授权发布。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1