当前位置:首页|资讯|微软|OpenAI|AI芯片|ChatGPT

微软携OpenAI欲斥资千亿美元建造AI超算! AI芯片需求的“狂飙之路”拉开帷幕

作者:和讯网发布时间:2024-04-01

原标题:微软携OpenAI欲斥资千亿美元建造AI超算! AI芯片需求的“狂飙之路”拉开帷幕

据The Information援引知情人士透露的消息报道称,美国科技巨头微软(MSFT.US)与ChatGPT开发商OpenAI正在就耗资高达1000亿美元的超大型全球数据中心项目规划进行细节层面的谈判,该项目将包含一台暂时命名为“星际之门”(Stargate)的AI超级计算机,这将是两家AI领域的领导者计划在未来六年内建立的一系列AI超算基础设施中最大规模的超算设施。

毋庸置疑的是,这个巨无霸级别的AI超算将配备“数以百万计算”的核心硬件——AI芯片,旨在为OpenAI未来更为强大的GPT大模型以及比ChatGPT和Sora文生视频等更具颠覆性的AI产品提供强大算力支持。

知情人士表示,双方计划之中的“星际之门”AI超级计算机,将被设计成有能力容纳数百万个最高性能级别的AI芯片,以全面提高OpenAI的人工智能算力体系。自2019年与OpenAI签署第一份全面合作协议以来,微软已向OpenAI承诺提供了至少130亿美元资金。

目前微软位列OpenAI第一大股东,微软对OpenAI的这些投资堪称“史上最顶级投资”,这家美国科技巨头可能将继续负责为该项目提供庞大的资金支持,这也将是两家科技公司已经实施的“五阶段计划”的一部分。

据媒体报道,其中一位知情人士表示,微软对该项目的承诺将部分取决于OpenAI大幅增强其人工智能应用产品的能力,尤其是OpenAI后续GPT大模型能力能否显著提高。

“AI卖铲人”英伟达将扮演重要角色,其他芯片以及微软自研AI芯片也将占一席之地

媒体报道称,知情人士透露微软和OpenAI的合作规划分为五个阶段,目前双方两家正开发一台规模相对较小的AI超算机器——这是第四阶段规划,预计耗资100亿美元,预计2026年投入使用。

这家科技巨头当前正在帮助为OpenAI开发一款相对较小规模的第四阶段AI超级计算机,预计将于2026年左右在威斯康辛州普莱森特山推出。据知情人士透露,微软(Microsoft)已经优先考虑在该AI超算项目中大规模配置AI芯片霸主英伟达(NVDA.US)旗下的人工智能芯片(AI芯片),该项目预计将耗资大约100亿美元。

毫无疑问,微软与OpenAI计划之中的“星际之门”AI超级计算机,有望继续大批量采购H100、H200以及最新的Blackwell架构芯片等英伟达AI芯片,但其他芯片商所提供的AI芯片,以及微软自研AI芯片也将在超算中发挥重要作用。

有着“算力之王”称号的“AI最强卖铲人”英伟达,当前可谓在全球AI数据中心扮演最重要的角色。全球各行各业对用于AI训练与推理领域的H100等英伟达AI芯片需求激增,使得该科技连续四个季度公布了令全球震惊的强劲无比业绩数据。

英伟达在全球高性能计算领域已深耕多年,尤其是其一手打造的CUDA运算平台风靡全球,可谓AI训练/推理等高性能计算领域首选的软硬件协同系统。英伟达当前最火爆的AI芯片H100 GPU加速器则基于英伟达突破性的Hopper GPU架构,提供了前所未有的计算能力,尤其是在浮点运算、张量核心性能和AI特定加速方面。因此,拥有大量高性能计算核心、能够同时执行多个高密集型AI任务,并且极度擅长处理并行计算的英伟达GPU近年来成为全球AI领域的最核心硬件。

在3月的GTC大会上,英伟达重磅推出基于Blackwell架构的全新款AI 芯片。从关键芯片指标来看,B200 整体AI算力高达20PFlops,远超上一代Hopper架构的H100能达到的4PFLOPs,也就是说性能乃当前全球最高性能AI GPU——H100性能的整整5倍,从而可以让AI大模型厂商们训练出更加复杂的大语言模型(LLM)。

英伟达最新推出的GB200超算体系性能则可谓“全球独一档”算力系统的存在。英伟达基于两个B200 AI GPU以及自研Grace CPU所打造的AI超算系统GB200,基于大语言模型(LLM)的推理工作负载性能则瞬间能够提升30倍,同时与上一代 Hopper架构相比,GB200成本和能耗大幅度降低约25倍。在具有1750亿个参数级别的GPT-3 LLM基准上,黄仁勋表示,GB200的推理性能是H100系统的7倍,并且提供了4倍于H100系统的训练速度。

但是值得注意的是,根据媒体爆料,拟议中的耗资高达1000美元的“星际之门”AI超算的AI芯片配置体系将更加“多元化”,即除了英伟达所推出的各款高性能AI芯片,还将包括其他芯片公司所推出的AI芯片以及微软自研AI芯片。

随着全球AI芯片需求激增,英伟达乃当之无愧的“AI芯片霸主”,微软以及OpenAI则一直在努力摆脱对英伟达AI芯片的重度依赖。OpenAI CEO 奥尔特曼(Sam Altman)曾表示,希望建立一个全球芯片基础设施供应体系来解决这一问题,确保“星际之门”AI芯片的稳定供应途径。

媒体报道称,“星际之门”AI超算体系的设计将使微软和OpenAI拥有使用AMD(AMD.US)等一些非英伟达芯片公司开发的AI芯片性能优势,其中还包括微软最近推出的AI服务器加速芯片Azure Maia,以减少对第三方芯片的依赖程度。

相比于“星际之门”之前的AI超算项目需要的整体支出要低得多,但是加上“星际之门”之后“微软-OpenAI超算”计划的成本可能将超过1150亿美元,是微软去年在AI服务器、新建建筑以及其他基础设备上资本支出的三倍多。

据媒体报道,微软与OpenAI的高管们预计“星际之门”最早将于2028年全线推出,并计划在2030年之前扩大项目规模和范围。据报道,他们已经讨论了超级计算机的替代性的能源供应体系,比如核能,毕竟这一超算项目可能需要至少高达5000兆瓦的大规模电力,足以为当前全球的数个大型数据中心供电。

AI芯片需求的“狂飙之路”刚刚拉开帷幕?

当前AI芯片需求可谓无比强劲,未来很长一段时间可能也是如此,这也意味着AI芯片需求的“狂飙之路”可能刚刚拉开帷幕。

英特尔CEO帕特·盖尔辛格(Pat Gelsinger)和有着“ChatGPT之父”称号的奥尔特曼近日在美国加州圣何塞会议中心进行对话,双方强调世界势必将需要更多AI芯片以及更大规模的芯片产能。

奥尔特曼在会议上表示:“事实的核心是,我们认为世界将需要更多芯片用于AI算力。这将需要全球在很多方面进行投资,这些投资规模可能超出我们的想象范围。我们现在还没有掌握足够的数据。”

在当下盖尔辛格称之为“芯经济(Siliconomy)”的浪潮中,他表示英特尔将利用市场未来对AI芯片的狂热需求,重新夺回英特尔在芯片制造领域的领袖地位。盖尔辛格在会议上表示,英特尔愿意为任何公司代工芯片,其中也包括长期竞争对手英伟达与AMD。盖尔辛格预测,到2030年,英特尔将主要通过满足对AI芯片的庞大需求,使其芯片代工业务达到全球第二规模,其规模可能仅略输于代工之王台积电。

而“台积电之父” 张忠谋近日在台积电位于日本的第一家芯片制造工厂成立的开业仪式上表示,根据他与全球顶级芯片公司高管们的探讨,目前全球对于包括AI芯片在内的芯片产能需求无比庞大。张忠谋表示:“这些顶级芯片公司几乎都在谈论,他们需要我们在全球建立更多的芯片制造工厂,需求不是几万片或几十万片晶圆,而是三座、五座甚至是十座大型的芯片厂。

随着ChatGPT以及Sora等以消费者应用为中心的生成式人工智能应用程序接连问世且瞬间风靡全球,全球企业纷纷参与布局AI技术的热潮,或将推动一场长达十年的AI繁荣发展时代。根据Mandeep Singh领导的彭博行业研究分析师发布的一份最新报告,预计到2032年,生成式人工智能市场的总营收规模将从去年的400亿美元增长到1.3万亿美元,这一市场可谓10年间有望翻32倍,以高达42%的复合速度高速增长。

在英伟达最近一次业绩电话会议上,黄仁勋表示,今年剩余时间,英伟达最新产品将继续供不应求。他表示,尽管供应在不断增长,但需求并没有显示出任何程度的放缓迹象。“生成式人工智能开启了一个全新的投资周期。”黄仁勋表示。他预计:“未来数据中心基础设施规模将在五年内翻番,代表着每年数千亿美元的市场机会。”

根据市场研究机构Gartner最新预测,到2024年AI芯片市场规模将较上一年增长 25.6%,达到671亿美元,预计到2027年,AI芯片市场规模预计将是2023年规模的两倍以上,达到1194亿美元。

知名市场研究机构Precedence Research近期发布的AI芯片市场规模预测报告显示,预计到2032年涵盖CPU、GPU、ASIC以及FPGA等类型AI芯片市场规模将从2023年的约219亿美元激增至2274.8亿美元,2023-2032年复合增速接近30%。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1