财联社4月21日讯(编辑 周子意)半导体研究公司SemiAnalysis的首席分析师Dylan Patel近日在接受采访时透露,OpenAI每天的运作可能要花费高达70万美元,因为人工智能(AI)运行所依赖的计算基础设施价格昂贵。
ChatGPT自去年底发布以来一直受到用户的青睐,它可以用来写求职信、制定课程计划和约会方案等等,不过ChatGPT对用户的回复,往往需要大量的算力。
Patel称,他的初步估计是基于OpenAI公司的GPT-3模型,而如今最新模型GPT-4已经推出,所以其运行成本可能会更高。
运行成本高昂
Patel和他的同事Afzal Ahmad称,虽然训练ChatGPT的大型语言模型可能要花费上亿美元,但当这些工具合理部署之后,其运营费可能远远超过了训练成本。
多年来,使用大型语言模型的公司一直在付出高昂的代价。
例如,初创公司Latitude开发了一款基于用户输入信息生成故事情节的人工智能地下城游戏。该公司首席执行官Nick Walton表示,在2021年,运行AI模型的费用以及向亚马逊AWS服务器所付的费用,加起来每月就要花费20万美元。
Walton开玩笑道,“我们每个月在自己员工和人工智能上花的钱差不多”。
微软秘密研制新芯片
据the Information率先报道,两位知情人士透露,微软正在开发一款名为Athena的人工智能芯片,旨在降低运行生成式人工智能模型的成本。
该芯片项目于2019年启动,这一年也恰好是微软对 OpenAI 进行首次投资的时间,当时的注资要求OpenAI只在微软的Azure云服务器上运行其模型。
Athena项目背后的原因有二:其一,微软高管意识到,他们在自主研发芯片方面落后于谷歌和亚马逊;其二,微软正在寻找更便宜的替代品,该公司目前的人工智能模型是在英伟达的图形处理单元芯片上运行的。
目前来看,英伟达是这个领域的最大玩家,单片价值1万美元的 A100 芯片占据了数据中心 GPU 市场 90% 以上的份额,主要用于训练和运行 AI。英伟达还已发布一款更先进的芯片——H100 ,据称该芯片的训练性能应该是其之前 AI 训练芯片的 9 倍,上月有报道称,OpenAI已使用H100芯片对其人工智能模型进行训练和运行。
据悉,微软有300多名员工正在研发这款芯片。知情人士透露,该芯片最早可能于明年发布,供微软和OpenAI内部使用。
(财联社 周子意)