ChatGPT能成为如今火遍全球的顶流模型,少不了背后超强的算力。
数据显示,ChatGPT的总算力消耗约为3640PF-days(即假如每秒计算一千万亿次,需要计算3640天)。
微软砸下大几亿美元,专门为训练ChatGPT打造了一台超算——上万张英伟达A100芯片打造,甚至专门为此调整了服务器架构,只为给ChatGPT和新必应AI提供更好的算力。
不仅如此,微软还在Azure的60多个数据中心部署了几十万张GPU,用于ChatGPT的推理。
有网友感慨:果然还是得靠钱生钱啊~
还有网友调侃,微软数据中心服务器终于多了个新用途:
虽然不是真的,不过想象微软数据中心的某些服务器用途,可能一半是Xbox的xCloud,另一半是ChatGPT。
微软为什么花数
亿美元打造超级算力?
事实上,这台超算并非最近才开始打造。
据微软表示,他们给OpenAI提供这台超算已经有3年之久,而ChatGPT也正是基于这台超算提供的算力训练的。
这是因为,OpenAI在最初商量与微软合作时,曾经就算力方面的事情进行过协商。
OpenAI认为,如果微软想给自己提供算力,就必须在Azure云计算平台上“腾出”一部分巨大的算力单独给它们使用,且确保它们不与Azure提供的其他服务产生冲突。
微软答应了这一条件,特意给OpenAI提供了一台超算,用于各种大模型训练。
△图源:微软
当然,微软也不是白白给OpenAI提供超算服务的,背后肯定有自己的考量。
其一,吸引更多企业来使用Azure训练自己的大模型。微软执行副总裁Scott Guthrie表示:
虽然它是OpenAI的定制版,但同样具备某种通用性,任何企业都可以基于这种方式来训练自己的大语言模型。
其二,直接在Azure中提供OpenAI模型服务(Azure OpenAI Service)。
此前包括GPT-3、Codex和DALL·E 2等模型,都已经接入Azure。
至于纳德拉1月份立的“要把ChatGPT加入Azure服务”flag,目前也已经实现。
官网还特意给ChatGPT相关服务贴了个高亮标签:
这波属实是微软用ChatGPT,再次宣传了一波自己的云服务(手动狗头)。
当然,基于英伟达A100打造的超算也不是微软Azure的最新技术。
据微软表示,他们还将基于英伟达H100和网络技术,推出Azure最新的AI虚拟机产品。
微软赢麻了!
微软负责战略合作伙伴关系的高管Phil Waymouth指出,OpenAI训练模型所需要的云计算基础设施规模,是业内前所未有的。
呈指数级增长的网络GPU集群规模,超过了业内任何人试图构建的程度。
微软之所以下定决心与OpenAI 合作,是因为坚信,这种前所未有的基础设施规模将改变历史,造出全新的AI,和全新的编程平台,为客户提供切实符合他们利益的产品和服务。
现在看来,这几亿美元显然没白花——宝押对了。
在这台超算上,OpenAI能够训练的模型越来越强大,并且解锁了AI工具令人惊叹的功能,几乎开启人类第四次工业革命的ChatGPT,由此诞生。
非常满意的微软,在1月初又向OpenAI狂砸100亿美元。
可以说,微软突破AI超算界限的雄心,已经得到了回报。而这背后体现的,是从实验室研究,到AI产业化的转变。
目前,微软的办公软件帝国已经初具规模。
ChatGPT版必应,可以帮我们搜索假期安排;Viva Sales中的聊天机器人可以帮营销人员写邮件;GitHub Copilot可以帮开发者续写代码;Azure OpenAI 服务可以让我们访问OpenAI的大语言模型,还能访问Azure的企业级功能。
国内云服务厂商现状如何?
那么,国内云厂商是否会因为ChatGPT被带动起来一波?
事情并不如想象中简单。
目前来看,国内公开表示拥有1万张英伟达A100的企业只有幻方量化。
据幻方官网显示,2022年3月由于需要发展量化金融业务,他们构建了一个名为萤火二号的AI集群,拥有一万张英伟达A100。
至于其他企业,据《财经十一人》介绍,国内GPU持有量超过1万张的企业不超过5家,即使规模最大的企业也不超过5万枚,而且这里面有不少都是英伟达中低端数据中心芯片。
显然,相比微软能给ChatGPT投入大量算力、或是像Facebook和谷歌一样动辄能采购几千上万张GPU,算力是国内厂商做ChatGPT的另一大难点。
在以ChatGPT为代表的大模型技术上,软硬件都还有不少难关要攻克。
声明:本文由入驻搜狐号的作者撰写,除搜狐官方帐号外,观点仅代表作者本人,不代表搜狐立场。
图文来源网络侵删