当前位置:首页|资讯|GPT-4|微软|融资|生成式AI

欧洲最火AI独角兽发布旗舰大模型!性能直逼GPT-4,微软宣布合作投资

作者:智东西发布时间:2024-02-27

欧洲最火AI独角兽发布旗舰大模型!性能直逼GPT-4,微软宣布合作投资

智东西(公众号:zhidxcom)

编译 | 程茜

编辑 | 心缘

智东西2月27日消息,昨天,欧洲生成式AI独角兽Mistral AI发布最新旗舰大语言模型Mistral Large。据外媒The Verge报道,与Mistral AI之前的模型不同,Mistral Large不会开源。

该模型上下文窗口为32K tokens,支持英语、法语、西班牙语、德语和意大利语,Mistral AI未公布其具体参数规模。

Mistral AI亮出了多份基准测评成绩单。其中,在衡量多语言理解任务基准MMLU上,Mistral Large的表现仅次于GPT-4;在多语言能力的基准测评对比中,Mistral Large的表现优于70B参数规模的Llama 2。此前,Mistral AI就用70亿参数大模型Mistral-7B成功挑战Llama 2一度爆红。

在定价方面,Mistral Large的定价略低于GPT-4 Turbo。Mistral Large为输入0.008美元/1000tokens,GPT-4 Turbo为0.01美元/1000tokens,输出Mistral Large是0.024美元/1000tokens,GPT-4 Turbo为0.03美元/1000tokens。

与此同时,在Mistral AI新模型发布当天,微软官宣与Mistral AI达成多年合作伙伴关系,并且据英国《金融时报》报道,微软还对Mistral进行了小额投资,但不持有该公司任何股权。

此次合作使得Mistral AI可以在微软的Azure云计算平台上提供其大模型,这家公司也成为继OpenAI之后第二家在该平台上托管大模型的公司。

一、亮出四大新功能,多语言能力测试优于Llama 2

在官方博客中提到,Mistral Large具有四大新功能及优势:

首先,Mistral Large支持英语、法语、西班牙语、德语和意大利语,并对相应语法和文化背景有更深入的理解。

其次,该模型支持32K tokens上下文窗口。

第三,Mistral Large基于精确的指令遵循,使得开发人员能够设计他们的审核策略,并且Mistral使用这一指令设置了会话助手le Chat的系统级审核。

最后,这一模型本身能够进行函数调用。这与在la Plateforme平台上实行的约束输出模式(constrained output mode),可以实现大规模应用程序开发和技术堆栈的现代化。

Mistral AI公布了Mistral Large与其他大语言模型在多项基准测评任务中的对比:

其中,在测量多语言理解任务基准MMLU上,Mistral Large的表现优于Claude 2、Gemini Pro 1.0、GPT-3.5和LLaMA 2 70B,成为仅次于GPT-4且可通过API普遍使用的模型。

推理和知识能力的基准测评对比:

多语言能力的基准测评对比:

Mistral Large在法语、德语、西班牙语和意大利语的基准测试中明显优于LLaMA 2 70B。

数学与代码能力测评对比:

此外,Mistral AI还发布了新的对话助手le Chat,le Chat可以作为用户与Mistral AI所有模型进行交互的对话入口。面向企业的助手为le Chat Enterprise,该助手可以通过自我部署功能和细粒度的审核机制来提高团队的生产力。

le Chat没有接入互联网,因此官方博客也提到,该助手可能会使用过时的信息进行回答。目前,用户可以通过加入等候列表名单,以等待使用le Chat。

le Chat体验地址:https://chat.mistral.ai/chat

二、发布

全新Mistral Small,优化响应延迟、成本

除发布新Mistral Large旗舰模型外,Mistral AI还将Mistral Small针对延迟和成本进行了优化。

Mistral Small的性能优于Mixtral 8x7B,并且延迟较低,这使其成为该公司的开源重量级产品和旗舰型号之间的“精致”中间解决方案。

目前,该公司正在简化其端点产品以提供以下内容:

包括open-mistral-7B和open-mixtral-8x7b在内,具有竞争性定价的开放权重端点。

新的优化模型端点,涵盖mistral-small-2402以及mistral-large-2402。

面向开发者,mistral-small和mistral-large支持函数调用和JSON格式,其中JSON格式模式强制大语言模型输出为有效的JSON,此功能使开发人员能够更自然地与模型进行交互,以结构化格式提取信息,以便在其流水线的其余部分中轻松使用。

函数调用使开发人员可以使用一组自己的工具连接Mistral AI端点,从而实现与内部代码、API或数据库的更复杂交互。

Mistral AI的博客中透露,该公司将很快向所有端点添加格式,并启用更细粒度的格式定义。

三、与微软达成长期合作关系,围绕三大重点开展合作

昨天,微软宣布与Mistral AI达成多年合作伙伴关系。因此,Mistral AI的模型目前可以通过三种方式获得,除了建立在Mistral AI自己基础设施之上的La Plateforme、企业私有部署外,还可以在微软云上使用。

微软的官方博客提到,微软与Mistral AI的合作重点主要围绕着超级计算基础设施、为Mistral AI的模型开拓市场以及AI研究和开发。

首先在超级计算基础设施方面,微软将通过Azure AI超级计算基础设施来支持Mistral AI,支持其旗舰模型的AI训练和推理。  

其次,微软和Mistral AI将通过Azure AI Studio和Azure机器学习模型目录中的模型即服务(MaaS)向客户提供Mistral AI的高级模型。

最后,两家公司还将探索围绕为欧洲公共部门等特定客户训练特定目的模型的合作。 

结语:Mistral AI商业化探索加快

此前,Mistral AI就凭借创新的技术路线,以70亿参数打败了数百亿参数的开源大语言模型霸主Llama 2。

Mistral AI的模型通常是开源的,但此次模型闭源再加上与微软的长期合作,或许意味着这家法国创企可以探索更多的商业机会。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1