今天分享的是算力系列深度研究报告:《2023年英伟达:算力需求激增,全球AI引擎加速》。(报告出品方:国泰君安证券)
精选报告来源公众:人工智能学派
报告共计:17页
【报告内容摘要如下】
为AI重塑GPU,共迎生成式AI时代
回顾近期英伟达的主要产品更新,2023年8月8日,在计算机图形大会SIGGRAPH2023上,英伟达创始人兼CEO黄仁勋发布了一系列重磅新品,在生成式AI时代和AI的iPhone时刻,英伟达致力于为生成式AI重塑GPU,并将过去十年的创新突破与这些新产品相结合,包括人工智能、元宇宙、加速计算、模拟等核心技术。
GH200将于2Q2024交付,突破加速计算和生成式AI算力禁锢
GH200较H100性能大幅提升。此次GH200超级芯片的更多参数得到展示或更新,作为结合了72核GraceCPU和HopperGPU的英伟达最强算力芯片,单块GH200将配备HBM3e高带宽内存,其内存容量高达141GB,提供每秒5TB的显存带宽,较原有的H100SXM版GPU显存80GB、显存带宽3.35TB/S的配置大幅提升。
NVLink促成GPU间的高速连接,以易于拓展的设计横向拓展至全球数据中心。NVLink可以实现不同GPU之间的连接,以此将所有的GPU集成到超大规模的超级芯片中。若使用NVLink将两个GH200相连(双配置),CPU则有144个核心、GPU具备8PFLOPS计算性能、以及282GBHBM3e内存,这一新的服务器将具备卓越的性能和易于拓展的设计,以此便于横向拓展至全球的数据中心。
DGXGH200超级计算机将成为世界上最大的单体GPU。SIGGRAPH2023上黄仁勋展示了DGXGH200的完整组装过程。首先是一块GraceHopper,用高速互连的CPU-GPULink将CPU和GPU连接,具备PCIeGen57倍的通信速率。在此基础上,GraceHopper机架上继续安装BlueField-3和ConnectX-7网卡、加之8通道4.6TB高速内存,并用NVLinkSwitch实现GPU间的高速通信,再加上NVLinkCableCartridge对上述部件进行组合,这就是英伟达DGXGH200超级计算机,它实现了256个GH200作为一个整体进行协同工作,拥有高达1EFLOPS的算力和144TB高速内存。此外,Quantum-2InfiniBandSwitch可通过利用高速、低时延的网络连接多个DGXSuperPod,构建面向生成式AI时代的GraceHopperAI超级计算机。
【内容看点】
(本“人工智能学派”已获上百家出品方授权。本文仅供参考,不代表我们的任何立场。如需使用相关信息,请参阅报告原文,内容版权归原撰写/出品方所有。)
报告共计:17页
受篇幅限制,仅列举部分内容。
海量精选报告来源公众号“人工智能学派”