当前位置:首页|资讯|通义千问

阿里云发布了第二款140亿参数开源模型,免费可商用 | 最前线

作者:咏仪发布时间:2023-09-26

作者 | 邓咏仪 

编辑 | 苏建勋

国内大模型如今步入落地阶段,另一方面,开源生态也初见雏形。

9月25日,阿里云开源了第二款大模型——通义千问140亿参数模型Qwen-14B,及其对话模型Qwen-14B-Chat,本次开放的模型免费可商用。

阿里曾于今年8月推出70亿参数的模型Qwen-7B等,一个多月下载量突破100万。如今的Qwen-14B,是阿里云开源的第二款模型。

来源:阿里云

Qwen-14B比起此前的7B模型,参数规模更大,并且模型性能也有不少提升。Qwen-14B是一款支持多语言的高性能开源模型,整体训练数据超过3万亿Token——作为对比,全球当前的开源模型霸主Llama2,预训练数据在2万亿Token左右。 

并且,Qwen-14B最大支持8k上下文窗口长度,这意味着模型会具备更强大的推理、认知、规划和记忆能力。8k也已经是如今头部大模型的配置——以GPT-4为例,8K的上下文窗口约等于可以处理6000个英文单词。

阿里云表示,Qwen-14B在多个权威评测中超越同等规模模型,部分指标甚至接近Llama2-70B。

而另一个开源的Qwen-14B-Chat,是在基座模型上经过监督微调所得到的对话模型。阿里云表示,借助基座模型的性能,Qwen-14B-Chat生成内容的准确度大幅提升,也更符合人类偏好,内容创作上的想象力和丰富度也有显著扩展。

对开发者而言,Qwen-14B-Chat能支撑更多应用场景,比如Agent(智能体)。开发者也可用简单的指令教会Qwen使用复杂工具,比如使用Code Interpreter工具来执行Python代码,以进行复杂的数学计算、数据分析、图表绘制等。此外,开发者还能开发具有多文档问答、长文写作等能力的“高级数字助理”。

如果以模型尺寸来看,数亿道数十亿级别的模型,可以作为一个模型的能力验证,而百亿级以上的模型,通常说明其性能能进入B端企业进行生产应用。

阿里云也发布了Qwen-14B在不少测试集上的测评结果。在MMLU、C-Eval、GSM8K、MATH、GaoKao-Bench等12个权威测评中,Qwen-14B都取得最优成绩,超越所有测评中的SOTA(State-Of-The-Art)大模型,甚至超越Llama-2-13B(130亿参数)模型。

据阿里云,Qwen-14B在十二个权威测评中超越同规模SOTA大模型

随着国内大模型落地逐步走上正轨,开源生态也渐渐成型。阿里云的魔搭社区便是国内最早的大模型开源社区之一。CTO周靖人表示,阿里云开源通义千问70亿参数基座模型Qwen-7B在一个月内,累计下载量就突破100万。

而魔搭社区目前出现了50多个基于Qwen的模型,社区多个知名的工具和框架都集成了Qwen。过去两个月内,魔搭社区的模型下载量从4500万涨至到8500万,增幅接近100%。

而在应用层,国内已有多个月活过亿的应用接入通义千问,大量中小企业、科研机构和个人开发者都在基于通义千问开发专属大模型或应用产品。

比如,有鹿机器人就在路面清洁机器人中集成了Qwen-7B,让机器人能以自然语言与用户进行实时交互,理解用户提出的需求,将用户的高层指令进行分析和拆解,做高层的逻辑分析和任务规划,完成清洁任务。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1