ChatGPT的总算力消耗:3640PF-days(如果每秒计算一千万亿次,需要计算3640 天),微软的Azure就得用几万 Nvidia A100 芯片连接在一起,ChatGPT需要的更多,一块A100大概是10000-15000 美元左右···而且这是消耗品,对于AI企业也是刚需产品!可想而知这能帮英伟达赚多少钱了!
H100的GPU核心,大概800亿个晶体管,最高可以提供80GB的显存,而显存带宽更是达到了吓人的3TB/s ,要知道4090 Ti 24GB的GDDR6X版本,带宽也只有1.1 TB / s,一块H100的价格大概是24万人民币,这价格买个车+车险+上牌,甚至办个油卡都还有富余!
无论是算力本身、还是支撑算力的硬件,这些关键点被都英伟达拿捏了,ChatGPT、DALL-E、Midjourney等AI公司火了?其实英伟达和黄老板才是大赢家!
那么黄老板可以放显卡等等党一马吗?具体内容请看视频: