尽管提倡在整个行业范围内停止人工智能训练,但据报道,埃隆·马斯克 (Elon Musk)已经在 Twitter 内启动了一个重大的人工智能项目。据Business Insider报道,该公司已经购买了大约 10,000 个 GPU,并从 DeepMind 招募了 AI 人才,用于涉及大型语言模型 (LLM) 的项目 。
01.
为了研发自家AIGC,
马斯克狂卖GPU并四处挖人
当地时间 4 月 11 日,据多家外媒报道,尽管高调建议在整个行业范围内停止 AI 训练,但伊隆·马斯克本人倒是在 Twitter 内启动了新的重大 AI 项目。
据 Business Insider 报道,Twitter 公司已经采购约 1 万块 GPU,并从 DeepMind 处招募到 AI 人才,打算开发自己的大语言模型(LLM)项目。
一位知情人士表示,马斯克的 AI 项目仍处于初始阶段。但根据另一位消息人士的说法,采购大量算力表明他正努力推动项目发展。不过目前还不清楚 Twitter 这个生成式 AI 模型的确切用途,潜在方向可能包括改进搜索功能,或者生成针对性广告内容。
Twitter 具体采购了哪些硬件仍是个谜。 但根据报道,尽管最近一段时间财务问题缠身,Twitter 还是豪掷数千万美元购买 GPU 设备。这些 GPU 预计将被部署在 Twitter 剩余的两处数据中心之一内,其中亚特兰大数据中心的可能性更高。有趣的是,马斯克于去年 12 月下旬刚刚关闭了 Twitter 位于萨克拉门托的主数据中心,这显然压缩了公司掌握的算力资源。
除了为生成式 AI 项目采购 GPU 硬件之外,Twitter 还在招聘更多工程师。
今年早些时候,Twitter 公司从 Alphabet 的子公司 DeepMind 处招募了工程师 Igor Babuschkin 和 Manuel Kroiss。至少从 2 月开始,马斯克一直在积极物色 AI 领域的人才,希望与 OpenAI 的 ChatGPT 展开竞争。
OpenAI 使用英伟达的 A100 GPU 来训练其 ChatGPT 聊天机器人,并支撑其后续运行和推理。如今,英伟达已经推出了 A100 的后继产品,其 H100 GPU 能够在大致相同的功率下将性能提升几倍。Twitter 在其 AI 项目中使用的可能正是英伟达 Hopper H100 或者类似硬件,但目前还没有明确证据。考虑到该公司尚未确定新 AI 项目的实际用途,所以也很难估计他们到底需要多少块 Hopper GPU。
像 Twitter 这样的巨头级企业采购硬件时,由于需求规模庞大,所以单位价格也将比较优惠。另外,如果单独从 CDW 等零售商处购买,目前英伟达 H100 的单价很可能超过 1 万美元。粗略估算,就能看出 Twitter 确实打算为自家 AI 项目砸下重金。
02.
带头呼吁暂停先进AI研发,
可能只是缓兵之计
虽然马斯克购买了大量 GPU 试图偷偷训练自家先进 AI,但在此之前,他却带头公开呼吁暂停研发先进 AI 技术长达 6 个月。他和一众反对继续研发 AI 的业内大佬们给出的理由是:我们已经有了 GPT-4,现在应该先缓一缓,别急着搞出比它更强大的新型 AI 系统。
当时,马斯克此举备受关注。因为一直以来,无论是钻研自动驾驶还是脑机接口,马斯克留给外界的印象是一位总能走在科技最前沿“钢铁侠”。公然反对更先进的 AI 的研发,不符合他的一贯作风。
有媒体报道,实际上,马斯克反对的不是 AI,而是 OpenAI 和 GPT。
马斯克不仅是生命未来研究所的最初发起人,也是 OpenAI 公司的联合创始人之一。但他在 2018 年离开了 OpenAI 的董事会,并撤销了一大笔赞助款。
美国《财富》杂志当时报道称,离开的原因是因为马斯克虽然支持人工智能,但特斯拉智能驾驶技术与 OpenAI 之间有“潜在利益冲突”。
还有报道称,马斯克在离开前提出过由他本人执掌 OpenAI 运营的建议,但遭到了拒绝。这就不难理解,为什么离开 OpenAI 后,马斯克就一直将矛头对准 OpenAI 以及和它有关的一切。
除了在公开场合发表言论攻击 OpenAI 外,马斯克还将手深入了 OpenAI 内部挖走他们的员工。2022 年离职的特斯拉自动驾驶主管 Andrej Kapathy 就是 OpenAI 最优秀的人才之一。
有网友认为,上述举动表明,马斯克并不是真的反对更先进的 AI 技术,而是痛恨这项技术先入了别人之手,而自己只能成为旁观者。
对于这次千人署名事件, 金沙江创投管理合伙人朱啸虎在朋友圈发表了自己的看法,“其实是为竞争对手争取时间,OpenAI 的迭代速度太快了。Google 的搜索比对手好 20% 就占据了 90% 的搜索市场份额。OpenAI 的影响会更广泛,所有的上层应用都希望使用优更强大 AI 赋能的云服务。更不用说微软本来就具有强大优势的前端 Office 应用。只能寄希望于 OpenAI 会像自动驾驶那样发展到某个阶段会遇到难以克服的瓶颈”。
现在来看,彼时的集体呼吁更像是一场“暗渡陈仓”的闹剧,也是马斯克以及一众被 OpenAI 生态伙伴们甩在身后的科技巨头们的缓兵之计,毕竟签名者中就有正亲自参与 AI 模型研究和部署的人士,比如 Stability AI 的 CEO Emad Mostaque。该公司去年发布了文本到图像模型 Stable Diffusion。
03.
ChatGPT迈向商用,
GPU需求显著提升
ChatGPT近期掀起云端与AI产业话题,Microsoft、Google、百度、阿里等相继推出基于生成式AI衍生的产品服务,根据集邦(TrendForce)最新报告《从AIGC看云端AI应用趋势与挑战》,未来迈向商用将上看3万颗;在此热潮下, GPU及AI芯片相关供应链业者可望受惠。
TrendForce表示,生成式AI是透过GAN、CLIP、Transformer、Diffusion等演算法、预训练模型、多模态等AI技术的整合,在既有数据或资料中寻找规律,并在资料汇整、社交互动、文案产出等领域带出高效的内容产出,以及与用户互动体验。现行市面上已有不少生成式AI之应用,较常见的产出类别包括文字、图像、音乐、编码等。
集邦表示,数据、算力、算法是深耕生成式AI不可或缺的三大关键,且产品服务易做但优化困难,因此,握有相关资源的云端大厂在发展上将更具优势。就厂商角度而言,由于ChatGPT等生成式AI聊天机器人不仅能与用户自然对话,「类理解需求」的能力使其针对各式咨询能进一步提供建议,加上使用搜寻引擎已相当普遍,因此透过强化搜寻引擎已是各云端大厂的首要任务。
据TrendForce调查,目前全球搜寻引擎市场以超过9成的Google引擎为首,Microsoft Bing仅占3%,短期间不致造成威胁,但随着用户扩大、数据回馈与模型优化的循环,是否会产生服务差异甚或抢占广告商机,也是Google不得不预防的潜在风险。
由于生成式AI必须投入巨量资料进行训练,为缩短训练就得采用大量高效能GPU。以ChatGPT背后的GPT模型为例,其训练参数从2018年约1.2亿个到2020年已暴增至近1,800亿个,估GPU需求量预估约2万颗,未来迈向商用将上看3万颗。
生成式AI发展将成为趋势,将带动GPU需求显著提升,连带使相关供应链受惠,其中最大受益者是GPU芯片龙头的英伟达(NVIDIA),旗下可达到5 PetaFLOPS运算效能的DGX A100,几乎是目前用于大规模资料分析、AI加速运算的首选;此外,尚有推出MI100、MI200、MI300系列芯片的超微(AMD)。
文章综合整理自网络,仅供阅读参考。
来源:
AI前线《“心机boy”马斯克:明面上呼吁暂停先进AI研发,背地里悄悄买1万块GPU推进大模型项目》
半导体行业观察《Elon Musk买了10000个GPU,入局大模型》