近日,在谷歌Cloud Next大会上,被誉为“欧洲版OpenAI”的Mistral AI悄然展示了其最新成果——Mixtral 8x22B大模型。这款模型的参数规模高达1760亿,成为市场上参数规模第二大的开源模型,仅次于马斯克的Grok-1。
Mixtral 8x22B由8个专家模型组合而成,每个模型的参数规模为220亿,整个模型的文件大小约为262GB。在性能测评方面,Mixtral 8x22B在MMLU(大规模多任务语言理解)评测中登顶开源模型榜首,同时在Hellaswag、TruthfulQA、GSM8K等多项测评中也取得了超越Llama 2 70B、GPT-3.5以及Claude 3 Sonnet的成绩。
据了解,Mixtral 8x22B的发布是近日大模型厂商们发布的第三个重要型号,此前OpenAI和谷歌分别更新了视觉版GPT-4 Turbo和Gemini 1.5 Pro。此外,有消息称Meta计划在下个月发布Llama 3。
Mixtral 8x22B的发布在开源社区引起了热烈反响。该模型在发布后不久便上架了开源社区Hugging Face,供用户进一步训练和部署。AI搜索平台Perplexity Labs和开源平台Together AI都迅速为该模型提供了支持。
值得一提的是,Mixtral 8x22B的运行效率也得到了广泛认可。AI科学家贾扬清表示,通过合理的量化,该模型可以在4个A100/H100显卡上运行,甚至实际上只需3张A100显卡就足够应对。同时,苹果机器学习研究员Awni Hannun也证实,Mixtral 8x22B在苹果的机器学习框架MLX上使用M2 Ultra芯片运行效果良好。
此外,出身巴黎的Meta首席AI科学家立昆转发Damien Henry帖文。据悉,2018年,杨立昆获得图灵奖,成为AI领域最具影响力的人物之一。
此次Mixtral 8x22B的成功发布,不仅展示了Mistral AI在AI技术领域的强大实力,也进一步推动了开源大模型的发展。同时,它也反映出法国乃至整个欧洲在AI研究和创新方面的活力和潜力。