如何认识OpenAI新摩尔定律?国内隐藏算力的大佬们都有话可说
ChatGPT火了整个世界,所有与此有关的事情都处在风口浪尖上。
OpenAI首席执行官Sam Altman看似不经意的一句话,却成为人们热议的话题:
新版摩尔定律很快就要来了,宇宙中的智能每18个月翻一倍。
有人推测也许是指神经网络中参数量而与往年数据不符。
有人把它理解为包括人类,AI等全部智能体都具有的技能,但是这一指标怎么测量却成为另一个难题。
还有不少学者、网友们对这一判断不敢苟同,IBM科学家Grady Booch表示这是胡说,便被顶在热评的榜首位置。
Altman对这些论述只做了一个简短的答复“还没有开始”。
但是无论如何,AI快速发展的背后都离不开算力这个清晰可测的指标。
早在2018年OpenAI就提出了另外一种接近摩尔定律格式的见解:
从2012年的AlexNet到2017年底的AlphaGo Zero,训练最大AI模型所需算力每3.4个月翻一番。
很快,他们本人推出的GPT-3将这一数字减至两个月内增加一倍。
在ChatGPT的年代,要思考的问题不仅仅是AI训练算力,全球月活用户达一亿人、访问微软的必应搜索和其他产品,AI推理算力同样是一个重要的支持。
对ChatGPT来说,算力最为直接的要数微软的Azure云,自2019年首次投资OpenAI以来,10亿美元开始便是OpenAI专属云供应商。
双方在最新追加100亿美元投资的声明中再次强调了这一点。
独家供应是指OpenAI开发基础设施都建设在Azure云中并利用Azure云所提供工具链。
这也就意味着,行将崛起的AI企业家大军想要建立在ChatGPT之上,也只有选择Azure云。
与之对应的是谷歌AI后面还有自家谷歌云,在云计算行业首屈一指的亚马逊还紧急寻找HuggingFace,以配合开源大模型Bloom的调配。
……
而云计算并非算力之源,正当ChatGPT炙手可热之时,算力供应侧却涌现出了一批业绩辉煌的企业。
有的选手你可能会立刻联想到,但是有些参加者,因为以前别的生意名气太大了,也许是始料未及的。
其中包括一名中国球员。
新摩尔定律与算力密不可分
最后一波是用图像识别、以推荐算法为代表的AI应用落地,在推进数字经济时,算力已由技术名词提升为经济学名词并为产业所使用、学界一再强调。
这波生成式AI在引爆全球热情之时,算力又升级为和普通人的工作生活有关、为公众所觉。
ChatGPT耗费的费用?
半导体行业资讯机构SemiAnalysis曾经做过这样的估计:用GPU来度量,需要约3617台英伟达HGX A100服务器,也就是28936块A100;从资金上看,用户每次提出问题的费用为0.36美分,一天就要花费69万美元。
结论如下:如果允许ChatGPT负担所有谷歌搜索访问,总共需要410万张英伟达A100 GPU。
因此很自然,英伟达是那位在ChatGPT红火时最著名的获利者之一。英伟达现在占据AI芯片市场的75%-80%左右的份额,ChatGPT每一次热搜,全是老黄账户里金币来帐声,有了热的祝福,到最新财报发布时,英伟达股价2023年整整涨了45%。
CEO黄仁勋在电话会议中还有一个新的说法:
“生成式AI,让全球企业都有了开发和部署人工智能的战略紧迫感。”
而且这还只是开始,根据花旗银行则预测,未来12个月内英伟达GPU销售额可达到30亿至110亿美元。
除了英伟达,向上游回溯GPU的ChatGPT分红赢家就是在芯片制造层上的台积电。
最近有报道说,英伟达和AMD,包括苹果,最近都向台积电发出了紧急订单,以占领未来的生产能力。
此前,台积电数年收入支柱为智能手机业务,但是到了2022年才实现,智能手机销售惨淡,人工智能大爆发带来的双重冲击之下,高性能计算业务已经连续3个季度实现反超—这可能也开启了时代的转关。
更有甚者,台积电其实已清楚这一转变。在近期向外界发声,台积电对未来一年寄予厚望,表现得也很耐人寻味:尽管全球半导体产业面临衰退,不过,预计全年的表现还是会略有提升。
当然如果是比较简单粗暴的推导的话,事实上,英伟达在上涨时,台积电的表现并不糟糕,毕竟,产业链的作用与供需关系都摆在那。
那么根据这一供需情况是否ChatGPT在算力层上的红利也将到达云计算和云服务厂商手中?
是的,并不完全如此。
正当ChatGPT炙手可热之时,许多分析都是指向云计算的,但是,还有一些分析很快将注意力放在中间环节,即GPU和云计算服务中间环节服务器之间。
芯片必须发挥其真正的作用,无法绕过服务器:芯片间是怎样高速互联的,整体机柜是怎样控制能耗与散热的,系统设计怎样适应各种工作负载的要求,均对最终的性能与效率产生影响。
Gartner曾有过这样的预言:2025年前,世界服务器市场将达1350亿美元,其中,AI服务器,AI云服务更将呈现爆发趋势。
而正是在这个环节中,AI服务器的定位中,隐藏了本文开篇所提及的中国算力参与者。
联想集团,Lenovo。
也许在以前,大家对于联想集团的了解还是比较集中于PC,但是PC的精髓还在于个人算力。
联想就走了这么一条由PC向高性能计算和更为广阔算力基础设施发展的道路。
多了最为直观财报数据为证。据联想集团第三季度财报显示(2022年10-12月),其ISG(Infrastructure Solutions Group)基础设施方案业务,营收增长48%,运营利润更飙升156%。
与DigiTimes统计同期全球服务器出货量较上年同期减少7.1%、环比减少4.3%形成鲜明对照。
联想集团ISG,所提供的就是以算力为中心的基础设施输出与解决方案,服务器就是其中最为重要的服务之一。
并将其更加直接的分解为服务器业务,本季度营收较上年同期增长35%,已成为世界第三大服务器提供商,从GhatGPT获得算力红利,贡献巨大。
但是ChatGPT突然爆发其实也仅仅是将联想集团算力赢家这个秘密人物推上舞台。
联想依靠的是什么,才是算力“隐形”的冠军?
联想集团董事长兼CEO杨元庆称,ChatGPT后面所需的普慧算力基础设施,正好成为联想多年来布局的优势所在。
对于算力设备需求联想很早就预见到了,“端端正正--边缘--云端--网络--智慧”的新型IT架构被提出来了。
去年联想更进一步提出了普慧算力的概念。也就是伴随着资料的爆炸式增长,我们已经步入崭新的数字化行列、智能化时代,对计算提出了要求,“单兵作战”装备和本地化数据中心已远不适应随时随地进行计算,它要求一种全新的IT架构,即“端端正正--边缘--云端--网络--智慧”,给用户带来无所不在的普慧算力。
这说明联想要做的不是产生算力的“水源”,而是一个“送水人”—把芯片集成到一个可以有效释放算力的服务器上,较少为外界所察觉。
在这一作用与定位上,联想集团非常“强”——如此强的核心有两方面。
第一,服务器产品的性能;第二,数量规模。
从这个角度来看,世界高性能计算排行榜TOP500就是观测服务器算力最好的参照,而若翻开最新一期全球高性能计算榜单TOP500(2022年11月),便能感知以上所称联想集团强大。
市场份额占比32%,以160台的供给占比全球第一,甚至领先第二名惠普集团近12个百分点。
而联想集团的这种算力供应在客户构成中也是普遍而多元的。
答复日本经济新闻社问题,联想集团执行副总裁Kirk Skaugen就曾凡尔赛式透露:世界十大公有云提供商之一,其中8家来自联想集团。
也就是说联想服务器在全球范围内被客户所接受,对于国产服务器厂商而言是非常不易的。
在这众多客户当中,有人推测云领域排名第二的微软Azure云—ChatGPT幕后加速引擎也不例外、还有“金主爸爸”。
最初微软大力度地投入资金扶持OpenAI的时候,便有人评价精明的微软CEO纳德拉哪会用真金白银来支撑投资,核心给出的仍然是等价的云服务,同时取得OpenAI的股份,成就一流AI研究机构战略布局,再一次为自己的Azure云赢得顾客,增涨利润,简直一石二鸟,这笔业务亏本是不可能的。
就是没有想到狂轰滥炸的OpenAI真的用大模型搞得有声有色,真以偶然革新的ChatGPT引燃全球科技互联网,使全体玩家都落入大模型之中、生成式AI沸腾。
微软不但带头受益,而且将老东家谷歌逼入角落,撼动谷歌搜索现金奶牛。纳德拉预计近期梦想甜蜜。
而且和微软的合作也非常紧密、也曾摘得2022年度微软设备合作伙伴奖,联想集团也是如此,甜头已直接显现于财报业绩。
此外,它还是一种互有联系的感情,你还可以了解联想集团2021年度创新科技大会,微软CEO纳德拉的原因,只是,当年的宣布还是过于“行业黑话”了,有必要结合当今ChatGPT的红利,才能够真正看清,那时候公告上有这么一句:未来的双方分别是PC,云计算和边缘计算、在服务的三方面开展了更深的协作。
然而,就连联想集团也是ChatGPT大热的算力提供者之一,意味着这一前景是否具有可持续性?这或许是一个值得关注的话题。毕竟,微软与ChatGPT之间的例子具有特殊性,在背后,联想集团尝到了甜头,其中不乏运气。
但是从ChatGPT所建立的大模型的走向上看,这种倾向将继续存在,算力供给侧也将相应地出现方向性变化。
根据《财经十一人》近日根据几位基础设施人士的意见得出结论说,AI算力将对云计算财务模型产生巨大冲击,这背后,无不隐藏着摩尔定律般的指数增长逻辑:
一是AI算力消耗量,增长速度,会比通用算力消耗量大得多。人工智能作为一个全新的技术领域,其发展速度远远超过了通用计算的增长速度,这对未来产业格局和经济增长产生巨大影响。信通院2022年数据显示,2021年中国通用算力规模达到95 EFlops,增长24%,增长47%。人工智能技术已经在各行各业得到广泛应用,包括医疗健康等领域都有明显体现。智能算力规模104EFlops,增长85%,超过50%。随着人工智能技术的不断发展和成熟,未来在大数据处理方面将会有更多的机会被挖掘出来。这意味着智能算力将是云计算又一轮增长点。
二是智能算力比通用算力贵。通用算力越来越便宜,由于AI算力比较匮乏,价格现在正处于抬高阶段。从理论上讲,AI算力规模化运营毛利率要高于通用算力毛利率10%。
第三,AI算力加上大模型应用到垂直行业中能够使新型应用模式应运而生。例如,金融,自动驾驶,医疗研发等、在智能制造的场景中,企业一般都需要购买企业AI大模型开源平台,调教与企业相适应的小模式。这些小模型会根据不同的业务需求进行定制,然后通过部署到特定领域中去实现其功能。该PaaS化AI服务可产生60%以上毛利润。当前,可以深化AI算力/AI模型所采用的最优途径。
这一AI算力的方向性转变在中国市场上也能演绎得更为具体:
当前无可否认,中国云厂商的AI算力、大模型与微软差距很大。究其原因,算力的大小,数据的大小、模型的精度均有差距。在大规模的应用场景下,如何提高模型性能成为了当前的难点。就算力规模而言,支持ChatGPT智能算力集群,最少要用到几万块英伟达GPU A100显卡。在大规模数据处理方面,一个大型数据中心要消耗数十亿甚至数百亿美元。一个完整模型的训练费用在1200万美元以上。
ChatGPT后面是智能算力集群,光是GPU显卡的采购成本就超过了10亿元。在云计算领域中,拥有高性能计算能力和丰富资源的大型服务器往往被视为核心设备,而这些服务器的建设都需要大量资金作为后盾。目前,国内能支持同类基础设施发展的公司不过三家。国内云厂商数据中心一般只有几千块GPU显卡。这是因为购买一款英伟达顶级GPU需要8万元。一台服务器一般要有4个到8个GPU,一个GPU服务器的成本一般在40万元以上。国内服务器的平均价格是4万-5万元。这就意味着GPU服务器比普通服务器贵10倍以上。
因此以算力大模型为动力的技术变革浪潮对于中国算力供给玩家所带来的挑战与机遇也就基本上可以导出。
一是要有完备,成熟和稳定的智能算力集群基础设施。
二是有关产品除了综合性能外,还要有能效优势—既环保又省成本。
因此,这两个结论都是清楚的,想必我们还可以知道,联想集团是ChatGPT红利的幕后暗藏胜者,算力前景走向仍将继续的理由。
若算力迎新摩尔定律,不容忽视的将是能耗,21年来,国家发展改革委高技术司首席领导说,我国数据中心每年用电量在全社会用电中所占比重较大。
换一种比较直观的说法,就是“三峡大坝的年耗电量在2.5个以上”,摩尔定律就是指数增长的定律,但三峡大坝的发电量不能成倍增加。
为此,联想集团开发出引领潮流的“海神”温水水冷技术,用50°C的温水,以流动循环的方式将热量带出,省略冷水机组及换热器,也可利用余热对建筑物进行采暖,电费节省及排放每年减少42%以上
近日,世界HPC Green500排行榜显示,联想集团提供的Henri系统,在每瓦电力消耗下,能够完成65.091亿浮点运算,认证性能良好,既满足了国内外的要求,甚至是目前世界上最为节能的高性能计算系统之一。
其实联想已不再是您刻板印象中只拥有电脑的企业。整体上看,算力基础设施业务出现爆发式增长,联想集团总体上也已逐步完成改造:个人电脑之外业务总收入所占比重,已突破40%。
ChatGPT还是大模型,乃至AI,技术创新周期最先涌动的算力红利,正刷新着联想集团的纪录,更确切地说,将算力供给侧背后隐形冠军推向舞台。