生成式AI的投资热还在蔓延,而这一旺盛需求也正在推动大公司对这一领域初创企业的收购。
国内,美团斥资20.65亿收购光年之外。海外,数据存储管理公Databricks最近以13亿美元的高价收购了OpenAI竞争对手MosaicML 。
MosaicML是一家总部位于美国旧金山的生成式AI初创公司,目前只有60余名员工。自2021年10月成立以来迄今已筹集6400万美元,其投资者包括Frontline Ventures、DCVC、AME Cloud Ventures、Lux Capital、Atlas、Playground Global和Samsung Next等。
其中,Samsung Next是三星旗下的投资公司,专注于区块链和AI等领域的投资,AME Cloud Ventures是由雅虎联合创始人杨致远领导的风投基金,Frontline Ventures是一家爱尔兰风投机构。
值得注意的是,MosaicML的上一轮融资在2023年1月,当时估值为2.22亿美元,13亿美元的收购价意味着不到一年时间其估值跃升了6倍。
收购方Databricks是一家数据存储和分析领域的独角兽,帮助AT&T、壳牌、Walgreens等大型公司处理数据。2021 年,MosaicML拿到摩根士丹利旗下Counterpoint Global领投16亿美元H轮融资,估值高达380 亿美元。收购MosaicML的交易可能是这家独角兽公司向IPO之路迈出的又一步。通过它们的联合产品,Databricks和MosaicML将能够使用自己的数据来训练和运行私人定制模型,从而保留对数据的控制权。
这并不是生成式AI领域今年的唯一一起收购。3月,Stable Diffusion背后的Stability AI收购了AI照片编辑应用ClipDrop背后的开发商Init ML,希望可以将自身的模型与应用场景更紧密的结合起来。5月,Databricks竞争对手Snowflake宣布收购生成式AI搜索初创公司Neeva,意在将生成式AI的专业知识构建到数据基础设施产品中。
生成式AI算是今年为数不多的投资热点。1月,微软向 OpenAI 投资了100 亿美元。3月,总部位于旧金山的Adept AI在B轮融资中筹集了3.5亿美元,投后估值至少为10亿美元。5月,Anthropic(人工智能助手Claude)筹集了4.5 亿美元的 C轮融资,估值达到50亿美元。
市场分析公司PitchBook Data的数据显示,到今年年底,全球生成式 AI市场的支出预计将达到426亿美元,并以32%的复合年增长率增长,到2026年将达到981亿美元。投向生成式AI初创公司的风险投资也从2022年全年的48亿美元增至2023年前5个月的127亿美元。
生成式AI市场急剧扩张,为MosaicML这样的初创公司创造了机会。使用大语言系统等工具来开发和训练公司自己的AI系统正在成为一些大公司的流行策略选择,MosaicML这样的公司可以提供和OpenAI类似的人工智能模型,但成本更低,并可以根据公司的数据进行定制。
上个月,法国生成式AI初创公司Mistral AI 获得了创纪录的1.13 亿美元种子轮资金投资。这笔融资和Databricks对MosaicML的收购都属于企业级生成式AI领域的推动事件。
MosaicML的两位创始人都曾在英特尔任职。
Naveen Rao曾在杜克大学就读计算机专业,后又拿下布朗大学神经科学的博士学位,研究人工智能神经网络的学习和开发。2014年创立了深度学习平台Nervana Systems。成立两年后,Nervana即被英特尔以约4.08 亿美元的价格收购,他自己也加入英特尔担任AI产品组的副总裁兼总经理。但Nervana后被英特尔抛弃,Naveen Rao遂在2021年离职再创业。
另一位创始人兼CTO Hanlin Tang是哈佛大学博士,研究人类视觉循环神经网络。他领导过英特尔实验室的人工智能实验室,重点研究领域为应用深度强化学习、自然语言处理和扩展大型模型。他是在英特尔收购Nervana Systems后加入的。更早之前,他曾在国防部、兰德公司工作,有着数据安全领域的经验。
MosaicML的首席科学家Jonathan Frankle是MIT计算机科学与人工智能实验室的博士后研究员,也是哈佛Kempner研究所的附属教员。他的研究方向是神经网络的学习动力学和训练算法,旨在提高大型语言模型(LLM)的效率同时降低训练成本。他的研究方向也正是MosaicML的竞争力所在。
MosaicML提供了一个生成式AI平台和一套完整的解决方案,包括MPT基础模型系列、MosaicML推理和 MosaicML训练,让用户能够在自己的数据和安全环境中训练和部署生成式AI模型。
其中,MPT基础模型系列是MosaicML 提供的一系列开源、商业可用的大型语言模型,它们可以作为用户构建自己的生成式AI应用的基础。MPT基础模型系列包括MPT-7B 和MPT-30B 两个模型,分别有70亿和300亿个参数。
和OpenAI的大语言模型相比,MosaicML的训练成本更低。MosaicML 首席执行官兼联合创始人 Naveen Rao曾在采访中表示,MPT-30B 的训练成本为70万美元,远低于训练 GPT-3 所需的数千万美元。
当然,这不是它唯一的优点。
今年5月,MosaicML推出面向企业的MosaicML推理。MosaicML首席执行官Naveen Rao曾表示,MosaicML对企业客户的价值主张是双重的:保持客户数据的私密性和降低成本。
当前许多企业倾向于定制人工智能模型,这些模型依赖于编码、法律工作、医疗保健等领域的特定训练集,其中许多行业都对本领域数据有着严格的合规和控制。企业客户需要能够高效执行特定任务的模型,这正是MosaicML相对于OpenAI这类通用模型所具备的优势。
一些初创公司已经在使用MosaicML的模型和工具来构建自然语言前端和搜索系统。MosaicML允许企业使用公司的模型架构根据自己的数据训练模型,然后通过其推理API部署模型。“如果客户训练了一个模型,他们可以放心,他们拥有该模型的所有迭代,该模型就是他们的。我们对此不拥有所有权。”Naveen Rao表示。
使用 MosaicML 的新推理产品,企业客户可以部署用于文本完成和文本嵌入的 AI 模型,其成本比使用OpenAI的LLM低4倍,而图像生成的成本比使用OpenAI的DALL-E 2便宜 15倍。
除了让人工智能技术变得更容易使用之外,MosaicML 还专注于提高数据质量,以实现更好的模型性能。它正开发工具来帮助用户在预训练过程中分层输入特定领域的数据,这确保了多样化和高质量的数据组合,对于构建有效的人工智能模型至关重要。
作为开源模型的可用性以及完整的模型调整和部署服务,或使这家初创公司能够挑战OpenAI在大语言模型技术市场的主导地位。
“我们希望让尽可能多的人了解和使用这项技术,这就是我们的目标。这并不是排他性的。这不是精英主义。”Naveen Rao表示。
本文来自微信公众号“投中网”(ID:China-Venture),作者:刘燕秋,36氪经授权发布。
知产观察力 2024-12-18
91che 2024-12-18
车评社 2024-12-18