ChatGPT在资本市场上引发的连锁效应仍在传导,继近一周来AI服务器概念股频频涨停后,市场将目光投向了新型服务器散热技术——液冷。
近日,券商研究机构接连发布研报称AI服务器需求爆发将推动液冷技术加速推广,相关市场或迎爆发。那么,目前液冷在数据中心中的应用究竟如何?会否成为ChatGPT概念下的又一风口?
ChatGPT技术
推广拉动算力需求
据浙商证券研报,AIGC(人工智能生成内容)以大模型、大数据为基础。大模型是指通过在大规模宽泛的数据上进行训练后能适应下游任务的模型,大模型意味着模型参数量级式提升。
ChatGPT是OpenAI 2020年发布的GPT-3模型微调后开发出的对话机器人。GPT-3模型参数量为1750亿,而该公司2018年推出的GPT-1模型参数量为1.17亿,2019年的GPT-2为15亿。模型参数量越大,意味着需要使用的算力资源越大。数据显示,ChatGPT的总算力消耗约为3640PF-days(即假如每秒计算一千万亿次,需要计算3640天)。
从对应需求来看,算力可分为基础算力、智能算力及超算算力。ChatGPT及其他AIGC主要拉动智能算力需求,有望带动AI服务器采购需求放量,这正是相关概念股频频涨停的原因。
AI服务器需求爆发将进一步拉动上游包括AI芯片、存储和液冷等方面的需求。浙商证券、国信证券近日均在研报中表示,液冷技术有望加速推广,相关市场或迎爆发。
液冷是高密度算力的
散热必选项
为何AI服务器的需求将拉动液冷技术推广?原因是AIGC需要的超高算力密度使传统风冷散热架构难以应对,几乎必须依靠液冷技术。
根据《冷板式液冷服务器可靠性白皮书》,2022年英特尔第四代服务器处理器单CPU功耗已突破350瓦,英伟达单GPU芯片功耗突破700瓦,AI集群算力密度普遍达到50kW/柜。而标准机柜的密度仅为5KW/机柜。
浙商证券研报认为,当机柜功率超过15kW,对于现有的风冷数据中心,已经到了空气对流散热能力的天花板。液体的导热性能是空气的10到25倍,因而可以支持更高的功率密度散热需求。
另一方面,近年来政策对于数据中心的能效控制趋于严格。2022年8月,工业和信息化部、国家发展改革委、财政部等七部门联合发布《信息通信行业绿色低碳发展行动计划(2022-2025年)》,要求到2025年,全国新建大型、超大型数据中心PUE降到 1.3 以下。PUE是数据中心的电能利用率指标,PUE越接近1,能效越高。
传统风冷数据中心中的散热用能几乎与IT设备耗电量相当,与之相比,液冷技术的优势更加凸显。就单向浸没式液冷而言,传统风冷机房的PUE只能做到1.3,液冷机房可做到1.1以下。
网宿科技单向浸没式液冷机柜 记者拍摄
网宿科技单向浸没式液冷机房 记者拍摄
国信证券研报认为,随着AI算力等场景应用的加速,持续看好液冷技术的应用与推广趋势,关注热力升级背景下头部温控器企业机遇。液冷散热器通过液体流动与散热器内部表面摩擦带走大量的热量而起到散热作用,与一般的风冷散热器相比,液冷能够大幅提高降温效果,液冷技术现主要应用在超高算力密度场景,ChatGPT推广有望进一步带动AI等超算应用场景的推广,带动液冷技术的进一步推广与应用。
液冷已在数据中心中
崭露头角
目前液冷在数据中心中的推广情况如何?产业链如何看待液冷赛道?
前不久,记者从某大型第三方数据中心公司了解到,目前该公司收到的订单中,“客户都会要求在预定的机房中留出一部分使用液冷系统。这个量已经明显上来了”。
目前液冷技术的成熟度已经较高,接下来还要依靠整个产业生态推动供需端放量、成本做低。从生产端来看,网宿科技副总裁胡世轩告诉记者,国内外领先的冷却液生产商,包括壳牌、埃克森美孚、陶氏化学、中石化等,都已经展开针对液冷的独立研发工作,同时也在研究如何进一步压低成本。
网宿科技旗下绿色云图拥有单相浸没式技术,并建立了上海第一座全浸没式液冷数据中心。不过,胡世轩也曾对记者坦言:“当前液冷推广还存在一定阻碍,比如大型数据中心担心采购液冷机柜后,客户的接受度不像对传统机柜那么高。”
而数据中心需要考虑的是,在液冷散热系统下,要如何准备和适应液冷设备和服务器的管理、维修和淘汰,因为液冷系统的作业方式和传统散热方式完全不同。
责编:蒋烨欢校对:张 宇
制作:季宇亮 图编:尤霏霏
审读:朱建华 监制:张晓光 签发:潘林青
版权声明
上海证券报微信保留本作品的所有权利,未经书面授权,任何单位或个人不得转载、摘编、链接或以其他方式复制发表,否则将被依法追究法律责任。
微信热线:王老师 021-38967805;版权合作:范老师 021-38967792。