鞭牛士报道,3月19日消息,英伟达Nvidia 推出了其下一代 GPU 系列 - Blackwell。
该公司声称,新的 GPU 架构将允许客户在万亿参数大型语言模型上构建和运行实时生成人工智能,其成本和能耗比其前身 Hopper 系列低 25 倍。
亚马逊、谷歌、Meta、微软、甲骨文云和 OpenAI 等公司确认将在今年晚些时候部署 Blackwell GPU。
布莱克威尔以大卫·哈罗德·布莱克威尔的名字命名,他是一位专门研究博弈论和统计学的数学家,也是第一位入选美国国家科学院的黑人学者。
Nvidia 创始人兼首席执行官黄仁勋表示:三十年来,我们一直在追求加速计算,目标是实现深度学习和人工智能等变革性突破。
「生成式人工智能是我们这个时代的决定性技术。Blackwell GPU 是推动这场新工业革命的引擎。与世界上最具活力的公司合作,我们将实现人工智能对每个行业的承诺。」
Blackwell 架构 GPU 采用定制的两掩模版极限 4NP TSMC 工艺制造,GPU 芯片通过 10TBps 芯片到芯片链路连接成单个统一 GPU。
GPU 拥有 2080 亿个晶体管,比 Hopper 系列的 800 亿个晶体管有所增加。它的尺寸是漏斗的两倍。
Blackwell 包括第二代 Transformer 引擎和新的 4 位浮点 AI 推理功能。
它还具有新的专用引擎,可实现可靠性、可用性和可维护性,并具有基于人工智能的预防性维护来运行诊断和预测可靠性问题。
Blackwell拥有专用的解压缩引擎来加速数据库查询,以及未公开的高级机密计算能力。
Nvidia将发布B100 GPU,预计热设计点(TDP)为700W,以及B200 GPU,TDP为1,000W。
与 Hopper 系列一样,Blackwell 将作为超级芯片提供——两个 B200 GPU 和一个 Nvidia Grace CPU,芯片间链路速度为 900GBps。
Nvidia 表示,与 Nvidia H100 GPU 相比,GB200 Superchip 在 LLM 推理工作负载方面的性能提高了 30 倍,并将成本和能耗降低了 25 倍。它没有将其与 GH200 超级芯片进行比较。
「Blackwell 提供了巨大的性能飞跃,并将加快我们交付领先模型的能力。我们很高兴继续与 Nvidia 合作增强 AI 计算能力。」OpenAI 首席执行官 Sam Altman 说道。
特斯拉和 xAI 首席执行官埃隆·马斯克 (Elon Musk) 补充道:目前没有什么比 Nvidia 的人工智能硬件更好的了。