ChatGPT、文心一言等平台的快速崛起让人们认识了AI大模型,如今主流的AI大模型已经发展到4.0版本,功能上已经足够强大,但这些大模型并没有停下发展的脚步,背后团队依然在进行相关的技能训练,而硬件服务器是这些大模型训练的基础,因为它们需要性能足够强大的硬件配置来支撑AI算力,从而完人工智能的训练。
在国内多数科技厂商都在跟进ChatGPT推出自家AI大模型的时候,中兴通讯把战略目光聚焦到了底层硬件方面,在10月份刚刚结束的中国移动全球合作伙伴大会上,由中兴打造的旗舰GPU处理器——R6900 G5正式亮相,这款处理器的与众不同的地方就在于它是为大模型的训练而针对性打造的。
前面也已经说到,对于AI大模型来说,背后需要强大的AI算力,而算力又需要性能强大的硬件支撑,R6900 G5的核心采用中兴最新一代的英特尔至强可扩展处理器,尤其是在GPU的性能上,R6900 G5提供了8模组H800 NVLINK GPU和8模组OCP OAM 8-GPU两个版本,两个版本的性能差距不大,在计算性能和数据处理方面目前都处于行业顶级水平,可以满足对各种高性能计算处理的需求。
和强大性能对应的是散热效果,这是保证性能持续稳定运行的基础,R6900 G5采用CPU+GPU双液冷散热方案,同时支持根据实际需求自动调节散热风扇的转速,这样一个细节的设计让R6900 G5的整机功耗降低了至少1000W,此外再加上N+N钛金电源模块,整套系统的稳定性更有保障。
除了优秀的能耗比之外,R6900 G5的网络通信能力也非常重要,不过R6900 G5支持多节点之间IB/RoCE的组网模式,带宽峰值可以达到4.8Tbps,绝对算得上是高速的数据传输性能了,同时优秀的网络性能也意味着更低的时延,这也是训练大模型所必需的环境条件之一。
总之,中兴打造的R6900 G5已经能够轻松满足各种大模型训练的硬件需求,作为大模型的底层硬件产品厂商,中兴在未来也会继续努力优化专注大模型的GPU服务器产品,从而推动人工智能和深度学习等科技领域的可持续发展。