你知道吗?现在每天有超过2亿人在疯狂地向Chat GPT提问,而这些问题背后需要耗费大量的算力来进行回答。据说,如果要完成这2亿+的咨询量,需要投入至少3万英伟达A100 GPU来计算,而A100是当下拥有最强AI算力的芯片之一,一块至少要花费7万人民币!简直就是豪车级别的价格啊!
算了一下,光计算这些有意义/无意义的问题,就要花费超过21亿人民币!这还不算电费、维护费等等,因为这种庞大的计算类似于矿机,非常耗电。一块A100功率就达到了400W,而如果要使用3万块A100来进行计算,那就需要1200万W,相当于12MW的功率。这可不是一般的大!
那么问题来了,每个用户向Chat GPT提问,是否都需要耗费大量的算力呢?其实不尽然。虽然Chat GPT需要巨大的算力来进行回答,但对于每个用户来说,所需的算力并不是很高。Chat GPT已经事先进行了大量的训练和学习,所以对于大部分问题,它已经能够轻松应对,不需要耗费太多的算力。当然,如果用户提出的问题比较复杂或是Chat GPT没有遇到过的问题,那么回答可能需要更多的算力来进行处理。
如果企业想用Chat GPT来替代程序员编程,成本更贵还是更便宜呢?这个问题不是那么好回答。一方面,Chat GPT的算力消费非常高,用它来编程的成本可能会非常昂贵。另一方面,如果使用Chat GPT来编程,可以省去程序员的工资和福利,因此在长期运行下来,总成本可能会相对较低。但是,要注意的是,Chat GPT并不能完全替代程序员,因为它只能根据事先学习的模式进行操作,无法适应所有的情况。因此,在具体情况下,到底哪个成本更高,还需要根据实际情况来进行分析。
总之,GPT3.5算力与成本真的是一个大问题啊!不管是使用Chat GPT回答问题,还是用它来编程,都需要考虑到其所需的巨大算力和成本