原标题:通义千问开源320亿参数模型
北京商报讯(记者 魏蔚)4月7日,阿里云通义千问开源320亿参数模型Qwen1.5-32B,此前已开源5亿、18亿、40亿、70亿、140亿和720亿参数6款大语言模型,上述大模型均已升级至1.5版本。此次开源的320亿参数模型相比通义千问14B开源模型,在智能体场景下能力更强,相比通义千问72B开源模型,推理成本更低。
4月7日消息,阿里云通义千问开源320亿参数模型Qwen1.5-32B,可最大限度兼顾性能、效率和内存占用的平衡,为企业和开发者提供更高性价比的模型选择。目前,通义千问共开源了7款大语言模型,在海内外开源社区累计下载量突破300万。通义千问此前已开源5亿、18亿、40亿、70亿、140亿和720亿参数的6款大语言模型并均已升级至1.5版本,其中,几款小尺寸模型可便捷地在端侧部署,720亿参数模型则拥有业界领先的性能,多次登上HuggingFace等模型榜单。此次开源的320亿参数模型,将在性能、效率和内存占用之间实现更理想的平衡,例如,相比14B模型,32B在智能体场景下能力更强;相比72B,32B的推理成本更低。通义千问团队希望32B开源模型能为下游应用提供更好的解决方案。基础能力方面,通义千问320亿参数模型在MMLU、GSM8K、HumanEval、BBH等多个测评中表现优异,性能接近通义千问720亿参数模型,远超其他300亿级参数模型。Chat模型方面,Qwen1.5-32B-Chat模型在MT-Bench评测得分超过8分,与Qwen1.5-72B-Chat之间的差距相对较小。多语言能力方面,通义千问团队选取了包括阿拉伯语、西班牙语、法语、日语、韩语等在内的12种语言,在考试、理解、数学及翻译等多个领域做了测评。Qwen1.5-32B的多语言能力只略逊于通义千问720亿参数模型。
通义千问Hugging Face大语言模型
2024-04-07
北京商报讯(记者魏蔚)12月1日,阿里云开源了通义千问720亿参数模型Qwen-72B。根据10个权威基准测评结果,Qwen-72B性能超越开源标杆Llama2-70B和大部分商用闭源模型,可适配企业级、科研级的高性能应用。当天,通义千问还开源了18亿参数模型Qwen-1.8B和音频大模型Qwen-Audio,实现“全尺寸、全模态”开源。
通义千问
北京商报 2023-12-01
阿里通义千问开源 320 亿参数模型,已实现 7 款大语言模型全开源 IT之家 4 月 8 日消息,4 月 7 日,阿里云通义千问开源 320 亿参数模型 Qwen1.5-32B。IT之家注意到
通义千问大语言模型
IT之家 2024-04-08
速途网4月7日消息(报道:李楠)今日,阿里云通义千问开源320亿参数模型Qwen1.5-32B,可最大限度兼顾性能、效率和内存占用的平衡,为企业和开发者提供更高性价比的模型选择。目前,通义千问共开源了7款大语言模型,在海内外开源社区累计下载量突破300万。
速途网 2024-04-07
12月1日,阿里云开源通义千问720亿参数模型Qwen-72B。据了解,该版本模型的性能超过Llama2-70B和大部分商用闭源模型,可适配企业级、科研级的高性能应用。此外,通义千问还开源了18亿参数模型Qwen-1.8B和音频大模型Qwen-Audio,实现“全尺寸、全模态”开源。
南方都市报 2023-12-01
下一个“光模块”?
格隆汇 2024-12-27
导游吃香,专业被裁
橡树实验室 2024-12-27
京沪蓉尔滨引领2024体育文旅热潮,赛事经济刺激消费增长。
体坛经济观察 2024-12-27
鱿鱼游戏2来了。
36氪的朋友们 2024-12-27
欧美经济差距越来越大的最主要原因是欧洲对新技术和研发的投资不足,这导致了欧洲生产率与美国渐行渐远
《财经》新媒体 2024-12-27
当了老板出手就是大方。
圈内新知 2024-12-27
从量变到质变。
雷科技 2024-12-27
除非物理学不存在了
爱范儿 2024-12-27
张一鸣很烦恼。
2024年新消费领域大事记。
亿欧网 2024-12-27
Copyright © 2025 aigcdaily.cn 北京智识时代科技有限公司 版权所有 京ICP备2023006237号-1