当前位置:首页|资讯|AI大模型|ChatGPT

亿万克柳星:“双碳目标”下,如何应对AI大模型带来的算力需求?

作者:镁客网发布时间:2023-04-27

原标题:亿万克柳星:“双碳目标”下,如何应对AI大模型带来的算力需求?

从去年11月30日至今,由ChatGPT引发的“AI大模型热”在产业界依旧持续着,依照当前不断有企业、产业大佬加入进来,想必AI大模型的热度一时半会儿是下不去了。

这一背景下,作为算力基础设施,高性能服务器自然也受到了极大的关注。

就在此前落幕的第十一届中国电子信息博览会(CITE 2023)上,镁客网也见到了许多服务器、数据厂商。期间,带着对AI大模型盛行下高性能服务器、数据中心的探讨,我们也有幸采访亿万克全国销售总监柳星先生,听他娓娓道来。

亿万克“前身”是研祥集团服务器事业部,后独立为集团旗下全资子公司,致力于为电信运营商、互联网大厂、政企用户等群体提供集产品研发、生产、销售、部署、运维于一体的服务器及IT系统解决方案,应用领域覆盖云计算、数据中心、边缘计算、人工智能、金融、电信、教育、能源等。

眼下,亿万克主打产品包括亚当通用机架式服务器系列、亚当液冷服务器系列、蛟云存储设备系列等。

AI大模型流行,AI异构型服务器需求倍增

不夸张地说,只要是你现在立马能想到的科技大厂,基本上都在AI大模型这条道上。

回头来看,这把火先是在国外科技界被点燃,引得谷歌、微软、Meta纷纷入局,接着火势蔓延到了国内,包括BAT、360在内的科技互联网大厂像是商量好的,也先后推出了自己的AI大模型产品。

这期间,马斯克一边呼吁暂停开发更强AI模型,一边“打脸”般购入1万块GPU、成立AI大模型公司与OpenAI打擂台的行为,也为AI大模型的火热提供了佐证。

而在应用层面,从最初的对话式交互,到后面的图片交流,再到自动驾驶等领域,AI大模型的场景应用也是逐渐增多……对此柳星也表示,ChatGPT太火了,随着国内应用需求的大幅度增加,致力于提供高性能服务器的亿万克在近半年也收到了许多针对AI异构型服务器的需求。

面向客户不断增长的高算力需求,亿万克早有应对,比如此次进行展示的“亚当G952N5”。

柳星介绍称,这是一款搭载英特尔Purley平台可扩展系列处理器的4U10GPU卡4电源AI型服务器,一次最高可支持10张双宽GPU卡,具有实时高速的并行计算和浮点计算能力,适用于HPC、大数据分析、3D图形应用程序、深度学习和科学计算等场景。

而站在高性能服务器角度,基于GPU提供高算力是一回事,如何降低能耗也是一道绕不过去的关卡。

液冷技术,高性能服务器的减碳“新宠”

面向算法训练与应用,高性能服务器能够提供更高的计算能力、更快的数据处理速度和更低的延迟,但往往需要付出高能耗的代价,不仅伤“芯”,也易造成高成本,严重的话,服务器因为温度过高而宕机也是十分有可能的。

尤其是近几年,随着“3060双碳目标”的提出,作为能耗大户的数据中心更是成为减碳的重点关注对象,具体表现比如PUE值不断缩紧。

PUE值是评价数据中心能源效率的指标,是数据中心消耗的所有能源与IT负载消耗的能源的比值。PUE值越小,意味着数据中心的节能减排程度越好,相反则能耗比越高。

而依据最新政策,国家要求到2025年,全国新建大型、超大型数据中心的PUE值降到1.3以下,这对于服务器厂商而言是一个不小的挑战。这一背景下,厂商们也纷纷将目光转向了比传统风冷技术更为高效的液冷技术。

“整个数据中心有几千、几万台服务器,整体能耗比较高,传统风冷式服务器会导致数据中心PUE值会很高,不符合要求,现在包括老旧数据中心的整改,以及新建数据中心,都可以使用我们的液冷服务器,让PUE值下降到1.25以下。”柳星表示。

目前亿万克液冷服务器业务划分出两条线,一条是冷板式液冷服务器LCP系列,也在此届电博会做了首次公开亮相;另一条是浸没式液冷服务器IC系列

其中,对比亿万克冷板式液冷服务器和风冷式服务器,前者能够将PUE值降至1.25以下,后者则维持在1.6左右。虽然数值上只有0.35的差距,但放在服务器功耗上却呈现出不小的差距。

最后

前面也提到,亿万克依托于整个研祥集团,而后者是中国最大的特种计算机研究、开发、制造、销售和系统整合于一体的高科技企业,在对供应链的管理和产品质量的把控上已经形成一套严苛的标准。

如今这一严苛标准也融入了亿万克的基因中。与此同时,“从产品研发生产到销售,再到交付客户、售后是一整套完整的服务,且亿万克服务器包括外观在内都是交由国外一流知名设计团队独家设计的,从品质,到整体的交付,再到整体供应链系统,亿万克都可以给到客户一个很好的支撑。”柳星表示。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1