当前位置:首页|资讯

再开源两款大模型 腾讯慢慢来

作者:北京商报发布时间:2024-11-06

同行几乎每个月都在发布大模型开源消息,腾讯的类似新闻则发生在6个月前。11月5日,腾讯将MoE模型“混元Large”以及混元3D生成大模型“Hunyuan3D-1.0”正式开源,这两个模型已在腾讯业务场景落地,支持企业及开发者精调、部署等不同场景的使用需求。

“慢工出细活”,腾讯机器学习平台总监,腾讯混元大语言模型算法负责人康战辉向媒体介绍新开源的MoE模型“混元Large”时表示;“不是什么都唯快不破”,7月腾讯集团高级执行副总裁汤道生谈到大模型C(用户)端产品元宝上线时间时说。巧合的是,第三方机构QuestMobile11月5日披露的AIGC(人工智能生成内容)App月活数据显示,9月豆包、文小言、Kimi等排名前十,元宝不在榜单中。

腾讯混元Large模型总参数量389B,激活参数量52B,上下文长度256K。除了这些大模型的常规数据,康战辉在3个多小时的沟通会上多次强调MoE架构。“腾讯混元Large是目前开源领域参数规模最大、效果最好的MoE模型。”

MoE(Mixture of Experts),即混合专家模型,是目前国内外主流的大模型结构。2024年初,腾讯混元宣布在国内率先采用MoE架构模型,总体性能比上一代Dense模型提升50%。此后,腾讯混元推出基于MoE架构的多模态理解大模型以及基础模型“混元turbo”。

之所以强调MoE架构,“是因为腾讯做MoE架构很早,我们很早发现这里面的潜力,所以一直在延续”,康战辉解释,“本质上来讲,MoE是一个高性价比的东西,同等算力下,模型参数量越大,MoE的性价比更高,更适合复杂的任务。Dense模型的优势在于完成一些相对简单的任务”。

不过康战辉也表示,“架构的选择长期看是殊途同归,罗马在哪里是很清楚的,路怎么走各家不一样”。

另一款开源的腾讯混元3D生成大模型,首批包含轻量版和标准版,轻量版仅需10s即可生成高质量3D资产,目前已在技术社区公开发布,包含模型权重、推理代码、模型算法等完整模型,可供开发者、研究者等各类用户免费使用。

在应用层面,腾讯混元3D模型负责人郭春超介绍,目前腾讯3D生成相关技术已经开始应用于UGC 3D创作、商品素材合成、游戏3D资产生成等腾讯业务中。腾讯地图基于腾讯混元3D大模型,发布了自定义3D导航车标功能,支持用户创作个性化的3D导航车标,相比传统的3D车标重建方案,速度提升了91%。

对于开源节奏,腾讯没有遮掩,态度是“不急于为了开源而开源”“在内部业务打磨好再开源”“要开就要有诚意,与公司内应用模型同宗同源”。

有关推广策略和营收等则不是腾讯当天的重点,“开源有利于大模型厂商形成更开放的生态,吸引到更多研究者或开发者来丰富基于这些模型的应用和服务,相应地也能推动模型持续地优化迭代。尽管模型本身是开源的,但仍然可以在这个基础上提供多种形式的服务,包括定制开发、技术支持、培训等”。易观分析研究合伙人陈晨告诉北京商报记者。

北京商报记者 魏蔚


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1