在6月7日,阿里云宣布了通义千问Qwen2大型模型的正式推出,并同时在Hugging Face和ModelScope平台上进行了开源。
Qwen2系列包含了五种不同规模的预训练及指令微调模型,具体为Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B以及Qwen2-72B,支持上下文长度扩展,可达到最大128K tokens,以满足不同场景下的应用需求。
钛媒体App6月7日消息,阿里通义千问Qwen2大模型今日发布,并在HuggingFace和ModelScope上同步开源。
通义千问Hugging Face
钛媒体快报 2024-06-07
[图片] 通义千问是阿里巴巴开源的一系列大语言模型。Qwen系列大模型最高参数量720亿,最低18亿,覆盖了非常多的范围,其各项评测效果也非常好。而昨天,Qwen团队的开发人员向HuggingFacel的transformers)库上提交了一段代码,包含了Qwen2的相关信息。就在今天,通义干问(Qwen)宣布经过数月的努力,Qwen系列模型从Qwen1.5到Qwen2的重大升级,并已在Hugging Face和ModelScope上同步开源。 Qwen 2.0 主要内容如下: 5 个尺寸的预训练和指令微
通义千问Hugging Face阿里巴巴大语言模型
AI-GitHub 2024-06-07
6月7日,备受市场期待的开源模型通义千问Qwen2系列终于揭开了神秘面纱。当天凌晨,阿里云免费开源首波5个尺寸的预训练和指令微调模型,两小时后,全球开源社区HuggingFace宣布Qwen2的72B模型直接冲上其开源大模型榜单,排名超过了其2月发布的Qwen1.5-110B和美国的Llama3-70B。
《财经》新媒体 2024-06-11
前言 近年来,大模型技术发展迅速,开源模型的出现为AI研究和应用带来了新的活力。在这一背景下,阿里云通义千问团队发布了全新升级的Qwen2系列开源模型,为国内外开发者提供了更强大的工具和更丰富的选择。
通义千问
努力犯错玩AI 2024-06-11
此外,还将把Qwen2扩展成多模态模型,融入视觉及语音的理解。据阿里云通义千问团队披露,Qwen2系列包含5个尺寸的预训练和指令微调模型,Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B和Qwen2-72B,其中Qwen2-57B-A14B为混合专家模型(MoE)。
中国证券报 2024-06-07
当传统遇上现代,老年生活焕发新生机
消费纪 2024-12-25
2025年AI应用趋势:多元探索、用户粘性、年轻用户群体。
易观 2024-12-25
让商家跳出内卷式竞争
懂懂笔记 2024-12-25
累计融资超44亿元。
36氪的朋友们 2024-12-25
阻碍企业采用的因素,成本仅排第三
适道 2024-12-25
日系两大巨头,合并是解药?
定焦One 2024-12-25
截至12月19日,2024年北交所共有23家企业在首发上会审核中顺利通过,实现了100%的过会率。
浪来时,要跟着跳起来。
于丽丽 2024-12-25
不是大环境不行,是三星不行。
雷科技 2024-12-25
另有两家基石投资者累计认购超5.4亿港元。
IPO早知道 2024-12-25
Copyright © 2026 aigcdaily.cn 北京智识时代科技有限公司 版权所有 京ICP备2023006237号-1