钛媒体App 3月29日消息,据阿里通义千问官微,通义千问团队开源首个MoE模型,名为Qwen1.5-MoE-A2.7B。它仅有27亿个激活参数,但性能可与当前公认最先进的70亿参数模型(Mistral 7B、Qwen1.5-7B等)相媲美。

下饭科技503 2024-12-27

三言科技 2024-12-27

IT时报 2024-12-27

腾讯科技 2024-12-27

IT之家 2024-12-27

IT之家 2024-12-27

三言科技 2024-12-27

IT之家 2024-12-27

人人都是产品经理 2024-12-27