OpenAI单月用电量抵17万家庭1年,科技进步的代价由谁承担?
2023年,ChatGPT一经亮相便震惊全球,各产业掀起了一股所谓的“AI技术革命”。不过别高兴得太早,变革背后,还有一个问题没有解决。人们发现,原来ChatGPT比大家想象中更耗水,更耗电。
据报道,美国加州大学的研究显示,微软在美国的数据中心光是训练GPT-3,每个月就要消耗70万公升的水,而且,这还没包括发电用水。至于耗电,OpenAI仅仅在2023年1月的用电量,就相当于17.5万个丹麦家庭一年的用电量。如果将来应用范围更广,消耗的电量会更多。专家们警告,若不解决能耗问题,未来AI恐怕要和人类“争夺资源”了。
正如同高昂的现代化成本向农村等欠发达地区转嫁,发达国家富裕生活的成本向第三世界国家转嫁的道理一样,蓝星上有人“岁月静好”的同时,就一定有不止一人在为前者“负重前行”。ChatGPT类大模型自从爆火以来,大吹特吹、一片向好的声音不绝于耳,并成为受益者精英们叙事体系的主流。似乎对话类AI大模型是一种特殊的单极磁铁,只有利好,没有弊端。只谈收获、不谈付出的套路,我们已经见识过太多了。