图片来源:视觉中国
当地时间11月13日,英伟达发布最新AI芯片H200 Tensor Core GPU,配备 141 GB 显存,可为生成式AI和高性能计算工作负载处理海量数据。据官方披露,与英伟达H系列上一代 H100 芯片相比,容量近乎翻倍,性能提升高达 60% 至 90%。而上一代H100芯片,即全球关注度最高的人工智能初创公司OpenAI用来训练大语言模型GPT-4的芯片。
广义上讲,只要能运行AI算法的处理器,都可称为AI芯片,包括GPU、FPGA、ASIC等。狭义上的AI芯片面向AI算法设计,常牺牲一定的通用性,来换取AI算法专用性能的提升。
据《新智元》报道,英伟达H200是首款采用HBM3e扩展版高带宽储存器的GPU,显存高达141GB,相比于上一代H100的80G,近乎翻倍。H200与H100基于相同的Hopper架构,可以加速基于Transformer架构的LLM和其他深度学习模型。
H200的性能提升最主要体现在大模型的推理性能表现上,其处理Llama2 70B大语言模型的速度是H100的近乎两倍。H200处理高性能计算(HPC)应用程序的性能相比上代也有近20%的提升。
显存带宽对于 HPC 应用程序很关键,可以实现更快的数据传输,减少复杂的处理瓶颈。对于模拟、科学研究和人工智能等内存密集型 HPC 应用,H200 更高的内存带宽可确保高效地访问和操作数据,与 CPU 相比,获得结果的时间最多可加快 110 倍。
另外,据英伟达官网数据,H200也提高了能源利用效率,其能耗相比于H100减少了约50%。
目前,英伟达的全球合作伙伴服务器制造商生态系统包括华擎 Rack、华硕、戴尔科技、Eviden、技嘉、慧与、英格拉科技、联想、QCT、Supermicro、纬创资通和纬颖科技等,可以直接使用 H200 更新其现有系统。除了英伟达自己投资的CoreWeave、Lambda和 Vultr 之外,亚马逊网络服务、谷歌云、微软 Azure 和甲骨文云等云服务提供商将从明年开始首批部署H200芯片。
H200芯片发布当天,英伟达股票上涨0.59%,盘中一度涨1.4%。英伟达官网目前尚未披露H200芯片的售价。据CNBC报道,上一代芯片H100 于今年早些时候开始量产,每个 GPU 的售价约为 25,000 美元(约合182,000人民币)。
据《新智元》报道,英伟达将H100 GPU和Grace CPU整合在一起的超级芯片GH200,在新一代H200芯片的加持下,将为全球各地的超级计算中心提供总计约200 Exaflops的AI算力。德国尤里希超级计算中心、日本先进高性能计算联合中心、德克萨斯高级计算中心、美国国家超级计算应用中心等世界大型超算中心,都将使用英伟达GH200构建超级计算机。
据外媒报道,业内专家表示AMD即将推出的 MI300加速器有望成为有竞争力的AI产品。AMD 将于12月6日举办“推进人工智能”主题演讲,揭晓代号为 MI300 的Instinct 加速器系列。
AI芯片的研发与跨国销售,也处于国际政治漩涡的中心。今年10月,美国收紧对中国的AI芯片出口,美国政府要求英伟达向中国客户出售A100等芯片前需获取许可证,英伟达和英特尔在中国市场受阻。
目前国内AI芯片相关厂商主要包括寒武纪、景嘉微、云天励飞、恒烁股份、海光信息、复旦微电、安路科技、澜起科技、航宇微、国芯科技、紫光国微、国科微等,其中寒武纪的ASIC芯片是国内AI芯片龙头,景嘉微的GPU芯片是国内GPU龙头。
此外,还有其他中国科技巨头和创业公司也已经在AI芯片领域有一定布局。