导读:近日据CNBC报道,由于ChatGPT等语言模型火爆,英伟达最先进的H100在eBay上的单片售价超过了4万美元,而此前零售商的售价约为3.6万美元。
图:英伟达H100计算卡
H100是NVIDIA在2022年发布的旗舰AI芯片,取代了一直被称为AI应用“主力军”的芯片A100,与A100相比,H100的能效提高了3.5倍,价格也从1万美元上涨到超过3万美元。
NVIDIA黄仁勋曾经表示,20块H100 GPU就可承托全球互联网的流量。
芯片大师曾报道ChatGPT等火爆,英伟达增加A100等旗舰GPU投片,开发人员正在使用H100来构建所谓的大型语言模型(LLMs)。
据报道,特斯拉CEO埃隆·马斯克在美国内华达州成立了一家名为X.AI的人工智能公司,旨在与Open AI展开竞争。据说马斯克为了新项目已经从NVIDIA购买了数千颗高性能GPU。
图:单价被炒到4万美元的H100
3D游戏先驱、前Meta consulting技术主管约翰·卡马克在Twitter上提到英伟达H100的涨价,上周五,至少有8个H100在eBay挂牌出售,价格从39995美元到46000美元不等。
而训练一个AI语言模型,尤其是像GPT这样的大型模型,需要数百个高端GPU协同工作。比如微软就斥资数亿美元购买了数万颗Nvidia A100芯片,帮助打造ChatGPT。
根据最近的爆料,为了创建和维持ChatGPT所需的人工智能分析数据的庞大数据库,开发商OpenAI使用了10000个英伟达的GPU进行相关的训练。而为了支持实际应用,满足服务器的需求,OpenAI已使用了约2.5万个英伟达的GPU,随着需求的增加未来预计还会增加。
图:售价数百万的英伟达DGX
此外,Nvidia还提供了一台带有八颗GPU的超级计算机,称为DGX。年初英伟达宣布推出新服务,允许公司以每月37,000美元的价格租用DGX——该系统将使用Nvidia A100芯片。如果要购买,不同配置的DGX售价将高达数百万元。
行业专家表示,要构建比目前可用的模型更大、数据需求量更大的模型,将需要更强大的芯片。
同时,由于当前AI算力稀缺,高端GPU的价格和行情仍将上涨。