#ChatGPT每天运营费70万美元#
Open AI的ChatGPT运行成本可能高达70万美元,这是一项令人震惊的数字。据半导体研究公司SemiAnalysis的首席分析师Dylan Patel透露,使用ChatGPT来写求职信、生成教案和重做个人资料等任务,可能会使OpenAI每天花费高达70万美元。这是因为人工智能运行的技术基础设施价格昂贵。
ChatGPT是OpenAI开发的一种自然语言处理模型,它可以生成自然流畅的文本,并且可以用于各种任务,如问答、对话和文本生成等。但是,这种模型需要大量的计算能力才能运行,并且需要昂贵的服务器来支持。
据报道,训练ChatGPT所需的大型语言模型可能需要花费数千万美元。但是,在部署任何合理规模的模型时,运营费用或推理成本远远超过训练成本。事实上,根据Patel和SemiAnalysis另一位分析师Afzal Ahmad告诉福布斯杂志的说法,“推断ChatGPT每周的成本都会超过培训成本。”
使用OpenAI语言模型的公司多年来一直在支付高昂的价格。例如,创业公司Latitude开发了一款基于用户输入信息生成故事情节的人工智能地下城游戏。该公司首席执行官Nick Walton表示,运行该模型使该公司在2021年每月花费20万美元用于人工智能回答数百万用户的查询。
高昂的成本是许多公司转向其他解决方案的原因。据报道,微软正在秘密建造一种人工智能芯片,以降低人工智能模型的成本。微软高管意识到,他们在自主芯片开发方面落后于谷歌和亚马逊,因此他们正在寻找更便宜的替代方案来取代英伟达的GPU芯片。
为了降低生产式人工智能模型的运行成本,微软正在开发一款代号为“雅典娜”的人工智能芯片。该项目于2019年启动,目前有300多名员工正在开发这款芯片。消息人士称,该芯片最早可能在明年发布,供微软和OpenAI内部使用。
总之,高昂的运行成本是人工智能技术面临的一个重要问题。虽然ChatGPT等自然语言处理模型可以生成自然流畅的文本,并且可以用于各种任务,但是它们需要大量计算能力和昂贵的服务器来支持。
因此,许多公司正在寻找更便宜、更可持续的解决方案来降低成本。开发人工智能芯片以降低成本,这可能是未来几年内其他公司也会采取的策略之一。也侧面证实了“你的工资还没AI运营成本高”的玩笑。