当前位置:首页|资讯|马斯克|OpenAI

马斯克旗下AI初创再吸金60亿美元,成立不到一年估值已超180亿美元

作者:DeepTech深科技发布时间:2024-06-04

此前传闻马斯克的 AI 初创公司巨额融资消息今天终于落下实锤。

美国当地时间 5 月 26 日,xAI 官宣完成 60 亿美元的 B 轮融资。

据官网资料显示,此次融资的主要投资者包括 Valor Equity Partners、Vy Capital、Andreessen Horowitz、Prince Alwaleed Bin Talal、Kingdom Holding、红杉资本以及富达管理研究公司等。

值得一提的是,随着此次 B 轮融资的完成,xAI 的估值达到近 180 亿美元,跻身全球 AI 独角兽企业之一。

(来源:xAI 官网)

首先捋一下这家公司的发展历程和里程碑。

2023 年 4 月,根据美国内达华州的备案文件,马斯克在该州新成立了一家 AI 公司;7月,马斯克正式官宣 xAI 成立,而团队成员绝大部分来自谷歌的 DeepMind、微软等全球顶尖的 AI 公司,专注于构建通用 AI 模型,并将“理解宇宙的真实本质”作为愿景。

在马斯克看来,创办 xAI 旨在回答更深层次的科学问题,期望未来可以用 AI 去帮助人们去解决复杂的科学和数学问题并且“理解”宇宙。

2023 年 11 月,xAI 发布旗下首个 AI 大模型产品 —— 名为“Grok”的聊天机器人,剑指 ChatGPT。按照 xAI 的说法,Grok 能够通过社交平台 X 实时了解现实世界,而且还可以回答通常被其他大多数 AI 模型拒绝的“敏感”问题,其幽默风趣的回答风格一度被业界称为“ChatGPT 叛逆版”。有业内人士指出,很大程度上,社交平台 X 可以看作是训练 Grok 聊天机器人一个非常好的数据库

12 月,xAI 宣布完成了1.347 亿美元的首次融资。

(来源:Crunchbase)

进入 2024 年以来,xAI 显著加速了其产品迭代速度。

今年 3 月,xAI 推出了 Grok 的第一代版本,一个从头训练的、包含 3140 亿参数的专家混合模型 Grok-1,其参数是 GPT-3.5 的 1.8 倍(GPT-3.5 包含 1750 亿参数);紧接着又推出 128k 长文本的 Grok-1.5,能够理解长语境和实现高级推理。

(来源:xAI)

4 月,xAI 推出旗下首款多模态大模型 Grok-1.5V,并提供给早期测试者和现有的 Grok 用户使用。作为xAI的第一代多模态模型,Grok-1.5V 能够处理文本、图表,以及图像(屏幕截图和照片)等内容,更为关键的是,Grok-1.5V 在理解现实世界方面优于其他 AI 模型

这一结论是 xAI 基于其开发的 RealWorldQA 基准测试得出的,其为一个用于评估多模态模型对现实世界理解能力的标准,其中的测试项目对于人类而言非常简单,但是对于大部分 AI 模型理解起来非常困难。

(来源:xAI)

正如 xAI 所标榜的,其发展轨迹非常“陡峭”,显然,xAI 一套密集的组合拳下来简直“让 OpenAI 汗颜”。

不只是模型开发,在融资方面,还是以 AI 界扛把子 OpenAI 作为对比,其成立近 10年,融资总额超 140 亿美元,而 xAI 成立不足一年便完成了 OpenAI 融资总额的一半,其潜力可见一斑。

就在上个月,消息称 xAI 正在和投资者们进行洽谈并计划筹集 30 亿美元的资金,最终一个月后这一数字实现翻倍。

据了解,纵观目前所有 AI 初创公司的融资规模,xAI 60 亿美元的融资处于“较高水平”,或许是看到了由马斯克领导的特斯拉和 SpaceX 两家公司的业绩表现,资本也比较看好 xAI 公司的前景,更确切地说是看好“硅谷宠儿”马斯克在大模型领域的押注。

作为 OpenAI 的联合创始人之一,马斯克由于利益冲突等在 2018 年退出了这家公司,如今他似乎已经和 OpenAI 现任 CEO Sam Altman 的关系进一步“恶化”,甚至在今年 3 月向 OpenAI 提起诉讼,指控其违背了向所有人提供 AI 研究的最初非营利使命。而就在前几天,马斯克还发帖斥责 Sam Altman 过于追求利润而忽略 AI 安全问题,称其违背了开发开源 AGI 的初衷,应该“造福人类”,而非单纯地追求利润最大化。

事实上,马斯克成立 xAI 旨在对标 OpenAI、 DeepMind 等一众行业头部玩家,如今在其本人光环的加持下,xAI 俨然成为了“搅局者”一样的存在,而此次融资资金的注入将进一步助力和加速 Grok 的开发和迭代进程。

与此同时,为了能让 xAI 的 Grok 能够与 OpenAI 的 ChatGPT、谷歌的 Gemini、Meta 的 Llama 等市面主流 AI 大模型分一杯羹,马斯克可谓“煞费苦心”。

不久前,马斯克计划在年底前部署 8.5 万个英伟达 H100 GPU,而在最近突然公开表示,计划部署 10 万个 H100 GPU 来训练和运行 Grok 的下一个版本。

除此之外,马斯克还计划将所有芯片串联成一个巨型计算机系统“Gigafactory of Compute”(超级计算工厂),规模将达到目前最大 GPU 集群的 4 倍。要知道,Meta 在今年 3 月才推出了 2 个计算集群用于训练 Llama 3,每个计算集群都包含 2.4 万个 H100 GPU。

马斯克本月已经向投资者表示,他希望在 2025 年秋季之前让“超级计算工厂”运行起来。

毕竟在很大程度上,Grok 2 迟迟难以面世主要是受到芯片算力的掣肘。马斯克上个月曾声称,“由于没有足够多的 AI 芯片推迟了 Grok 2 模型的训练和发布。训练 Grok 2 大约需要 2 万个 H100 GPU, 而训练 Grok 2 的下一个版本以及未来更高的版本将需要 10 万个 H100 GPU。”

显然,英伟达 AI 芯片一年一迭代似乎跟不上 AI 技术发展的脚步,即便是亿万大佬也会被“芯荒”问题困扰。

(来源:英伟达官网)

这里需要注意的是,英伟达此前曾宣布今年下半年将开始生产交付采用基于新架构“Blackwell”的新一代 B100 GPU,为什么马斯克依然要采购基于老架构“Hopper”的上一代 GPU?

主要原因是英伟达创始人兼 CEO 黄仁勋曾经划过重点 ——“时间很关键,在当今 AI 竞争环境下要分秒必争,等待下一代产品往往会丢掉先发优势。”

显然,“AI 教父”黄仁勋的这番话已经深入人心。

当然,业内同行们也都没闲着,为了加速训练 AI 模型,微软目标计划到今年年底部署 180 万个 GPU,OpenAI更是放出豪言要部署 1000 万个 GPU 训练其最新的模型,同时,微软和 OpenAI 也在计划开发一个名为“星际之门”的包含数百万个 GPU 的超级计算中心,价值将达千亿美元……

算力之争愈演愈烈,而作为 AI 热潮中的“卖铲人”黄仁勋一次又一次地赢麻了。

参考资料:

1.https://x.ai/blog/series-b

2.https://x.ai/blog/grok-1.5v

3.https://www.crunchbase.com/organization/xai/company_financials

4.https://techxplore.com/news/2024-05-musk-largest-supercomputer-xai-startup.html

5.https://cointelegraph.com/news/elon-musk-gigafactory-of-compute-grok-artificial-intelligence-ai

6.https://www.theinformation.com/articles/musk-plans-xai-supercomputer-dubbed-gigafactory-of-compute

7.https://finance.yahoo.com/news/jensen-huang-elon-musk-openai-182851783.html

8.https://knowlab.in/xai-elon-musks-foray-into-the-quest-for-understanding-the-universe/


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1