早在今年5月29日,AI芯片大厂英伟达(NVIDIA) CEO黄仁勋就在COMPUTEX 2023展前发布会上,正式发布了升级版的GH200 Grace Hopper超级芯片,旨在助力开发面向生成式AI语言应用、推荐系统和数据分析工作负载的巨型、下一代模型。
GH200超级芯片,是将 72 核的Grace CPU、H100 GPU、96GB 的 HBM3 和 512 GB 的 LPDDR5X 集成在同一个封装中,拥有高达 2000 亿个晶体管。这种组合提供了 CPU 和 GPU 之间惊人的数据带宽,高达 900 GB / s,为某些内存受限的工作负载提供了巨大的优势。
相关文章:《AI性能突破1Eflop!英伟达DGX GH200发布:256个GH200芯片,144TB共享内存!》
美国当地时间8月8日,英伟达又发布了新一代GH200 Grace Hopper(简称“新版GH200”)平台。但与今年5月发布的GH200不同的是,新一代GH200搭载了全球首款HBM3e内存,内存容量和带宽都有显著提高,专为加速计算和生成式AI时代而打造。
英伟达称,新版GH200旨在处理世界上最复杂的生成式AI工作负载,涵盖大型语言模型、推荐系统和矢量数据库,将提供多种配置。新版GH200将于2024年第二季度投产。
具体来说,新版GH200芯片平台基于 72 核 Grace CPU,配备 480 GB ECC LPDDR5X 内存以及 GH100 计算 GPU,搭配 141 GB 的 HBM3e 内存,分为六个 24 GB 的堆栈,并使用了 6,144 位的内存接口。虽然英伟达实际安装了 144 GB 的内存,但只有 141 GB 是可用的。
相比原版GH200平台,新版GH200平台的双芯片配置将内存容量提高3.5倍,带宽增加三倍,一个服务器就有144个Arm Neoverse高性能内核、8 petaflops 的 AI 性能和282GB的最新HBM3e内存技术。
HBM3e是全新一代的高带宽内存,带宽达每秒5TB,比原版的GH200所搭载的HBM3快50%,可为新版的GH200提供总共每秒10TB的组合带宽,使新平台能运行比前代大3.5倍的模型,同时通过快3倍的内存带宽提高性能。
据英伟达介绍,目前配备 HBM3 内存的原版GH200 Grace Hopper超级芯片平台已经在生产中,并将于下个月开始商业销售。而配备 HBM3e 内存的新版GH200 Grace Hopper超级芯片平台现在正在样品测试中,预计将于 2024 年第二季度上市。
英伟达强调,新版GH200 Grace Hopper 使用了与原版相同的 Grace CPU 和 GH100 GPU 芯片,因此公司无需推出任何新的软件版本或步进。英伟达表示,原版 GH200 和升级版 GH200 将在市场上共存,这意味着后者将以更高的价格出售,毕竟其更先进的内存技术带来的更高性能。
英伟达表示,配备 HBM3e 内存的下一代 Grace Hopper 超级芯片平台完全兼容英伟达的 MGX 服务器规范,并且可以与现有的服务器设计直接兼容。
黄仁勋说,为了满足生成式 AI 不断增长的需求,数据中心需要有针对特殊需求的加速计算平台。新的GH200 Grace Hopper 超级芯片平台提供了卓越的内存技术和带宽,以此提高吞吐量,提升无损耗连接GPU聚合性能的能力,并且拥有可以在整个数据中心轻松部署的服务器设计。
编辑:芯智讯-浪客剑