摘要:OpenAI 表示,自去年 12 月以来,ChatGPT 对于处理查询的方式进行了“一系列系统范围的优化”,使成本降低了 90%,最终带来了面向用户的大幅降价。
3月10日消息,今年以来随着基于大语言模型(LLM)的生成式人工智能ChatGPT持续火爆,不少企业已经开始导入生成式AI来协助办公。但是对于生成式AI的服务提供商来说,也面临着高昂的成本支出。
根据此前国盛证券发布的研报显示,GPT-3训练一次的成本约为140万美元,对于一些更大的LLM模型,训练成本介于200万美元至1200万美元之间。今年1月平均每天约有1300万独立访客使用ChatGPT,对应芯片需求为3万多片英伟达A100GPU,初始投入成本约为8亿美元,每日电费在5万美元左右。显然这样的成本是极为高昂的。要想让生成式AI能够更广泛的被应用,在提升使用体验的同时,还需要降低成本。
据外媒报道,由于大语言模型公司OpenAI、Anthropic和Cohere之间的激烈竞争,目前他们之间的成本差异已经下降到只有约5%。而OpenAI为了提升竞争力,开始直接将使用这项技术的价格削减了90%,这对竞争对手来说可能是毁灭性的。
OpenAI 表示,自去年 12 月以来,ChatGPT 对于处理查询的方式进行了“一系列系统范围的优化”,使成本降低了 90%,最终带来了面向用户的大幅降价。
OpenAI的ChatGPT大幅降价,也将会让更多的用户参与进来,硬件厂商也会设计更高性能的芯片,例如英伟达H100 GPU。
不过,AI21联席首席执行官奥利·格申(Ori Goshen)表示,大部分公司不会使用ChatGPT的通用模型,而是需要针对金融或医疗等行业训练的模型,或是基于某个公司自有数据训练的模型。
ChatGPT的降价仅是开始,这项技术将会以飞快的速度进入大规模商用,同时也表明OpenAI抢占市场的决心,未来不会有太多公司有实力与其抗争。
编辑:芯智讯-林子