鞭牛士报道,5月7日消息,据 The Information 周一报道,微软正准备通过其最新成果 MAI-1 进入人工智能语言模型领域。
在谷歌 DeepMind 联合创始人、Inflection 前首席执行官 Mustafa Suleyman 的带领下,微软旨在挑战 Alphabet 旗下谷歌和 OpenAI 在人工智能领域的主导地位。
报道中引用的两名微软员工收集的见解,目前正在开发的 MAI-1 标志着微软与之前的小型开源模型的不同。 MAI-1 的预期规模远远超过其前身,准备提供增强的功能,但其具体应用仍有待性能评估确定。
微软最近推出的 Phi-3-mini 突显了其致力于多样化人工智能产品、迎合不同细分市场的承诺。这一战略转变符合该公司使人工智能技术民主化并使其更容易获得的目标。
在幕后,微软在基础设施方面投入了大量资金,部署了配备 Nvidia 图形处理单元的大型服务器集群来支持 MAI-1 的开发。
MAI-1 预计拥有约 5000 亿个参数,旨在与 OpenAI 的 GPT-4 等行业巨头竞争。
三月份任命 Suleyman 领导微软消费者人工智能部门,这标志着该公司的战略重点是利用人工智能来实现以消费者为中心的应用程序。虽然 MAI-1 可能借鉴了 Suleyman 之前在 Inflection 任职期间的见解,但它代表了微软在人工智能领域向前迈出的明显一步。
微软拒绝对该报道发表评论。
微软首席技术官凯文·斯科特(Kevin Scott)在LinkedIn上发表的一篇文章中写道,该公司构建大型超级计算机来训练人工智能模型,而OpenAI使用这些超级计算机来训练前沿定义模型。
「我们为开放人工智能构建的每台超级计算机都比之前的计算机大得多,而且它们训练的每个前沿模型都比其前身强大得多。」斯科特写道。 「我们将继续沿着这条道路走下去——为开放人工智能构建越来越强大的超级计算机来训练模型,从而为整个领域奠定基础」
Scott 补充道,微软多年来一直在构建 AI 模型,其中一些模型的名称包括 Turing 和 MAI。
知情人士告诉 The Information,由于需要大量的计算能力和训练数据,MAI-1 的价格将非常昂贵,因为它将比微软训练的较小的开源模型大得多。
据报道,Meta 和 Mistral 的开源模型拥有 700 亿个参数(或者模型在训练过程中学习以进行预测的变量),相比之下,MAI-1 将拥有大约 5000 亿个参数。
据报道,OpenAI 最强大的模型 GPT-4 拥有超过一万亿个参数。
据 The Information 报道,微软可能会在本月晚些时候的年度开发者大会 Build 上预览该模型。它补充说,该公司保留了一个大型服务器集群,其中包括 Nvidia 的 GPU(图形处理单元)以及用于训练模型的大量数据。
该模型仍在开发中,尚未正式公布,因此现阶段许多细节仍不清楚。但这是一个大模型,可以将微软定位为谷歌和 OpenAI 的竞争对手——后者的早期成功很大程度上归功于微软数十亿美元的投资。
Microsoft 拥有训练 MAI-1 模型所需的大量数据。
既然微软已经是 OpenAI 和法国初创公司 Mistral的大投资者,为什么还要从头开始创建一个新模式呢?鉴于其当前的人工智能交易正在接受监管审查,这家科技公司可能会两面下注。
MAI-1 的 5000 亿个参数比许多模型都要多:微软的 Phi-3 Mini 于 3 月份推出,只有 38 亿个参数,而 Meta 的 Llama 2 模型最新统计的参数高达 700 亿个。
尽管如此,这个数字仍使 MAI-1 远远低于 OpenAI 的 GPT-4 及其报告的 1 万亿个参数。
该模型由 Mustafa Suleyman 主持,他曾担任人工智能初创公司 Inflection 的首席执行官。几个月前,这家初创公司以 6.5 亿美元的价格将其知识产权出售给微软,在这笔交易中,该公司的大部分员工也被这家科技巨头聘用。
然而,根据The Information的独家报道,MAI-1 据报道完全由微软内部构建,而不是重新命名的 Inflection 模型——即使一些训练数据和技术可能会被继承。
在 Inflection 之前,Suleyman 曾在 Google AI 工作,这是另一家顶级人工智能大企业竞争对手。
一位 LinkedIn评论者提到这一消息时,人工智能员工的流动可能会让人想起GenAI 公司的饥饿游戏。