近日,英伟达宣布推出全新的AI芯片——NVIDIA HGX™ H200!这款芯片采用了HBM3e GPU,相比之前的型号,不仅速率更快,而且容量更大,能够更好地满足生成式AI和大语言模型的需求。同时,它还适用于HPC(高性能计算)工作负载,为科学计算提供强大的支持。
H200的最大亮点在于其显存高达141GB,传输速度达到4.8 TB/秒,相比上一代架构的NVIDIA A100,容量翻了近一倍,带宽增加了2.4倍!这使得它能够处理海量数据,为各种应用工作负载提供最高的性能。
英伟达表示,H200与HGX H100系统的硬件和软件都兼容,可以用于各种配置。同时,H200还可以与采用超高速NVLink-C2C互连技术的NVIDIA Grace CPU搭配使用,组成带有HBM3e的GH200 Grace™ Hopper超级芯片。这款超级芯片专为大型HPC和AI应用而设计,将进一步推动AI领域的发展。
英伟达将于2024年第二季度开始通过全球系统制造商和云服务提供商提供H200;服务器制造商和云服务提供商也预计于同一时间开始提供搭载H200的系统。这无疑为AI领域注入了新的活力,期待未来更多的创新!
专注科技热点,洞察前沿科技,欢迎关注~