当前位置:首页|资讯|ChatGPT|微软|谷歌|百度|人工智能

ChatGPT 爆红 科学家忧心使碳排放量激增

作者:科闻论谈发布时间:2023-02-14

原标题:ChatGPT 爆红 科学家忧心使碳排放量激增

(本篇文章共863字,阅读时间约1分钟)

随着 ChatGPT 爆红,微软、Google,中国百度等大科技公司也相继宣布重大改革搜寻引擎,试图将大型人工智能模型整合至搜寻引擎,给用户更丰富准确的体验。但科学家忧心,这些新应用需要巨大的能源用量,将使碳排放激增。

台湾媒体引自外国媒体的报道指出:构建高性能人工智慧搜寻引擎的竞赛,需要运算能力大幅提升,后果就是科技公司能源用量和碳排放大幅增加。英国萨里大学团队分析,有大量资源用于索引和搜寻网路,接下来人工智能整合需要不同能力,也就是整合运算效能、储存和高效能搜索。每当线上运算处理步骤变化,就会令大型处理中心电力和冷却资源显著增加。预估搜索引擎整合人工智能后也会走上这条路。西班牙科鲁尼亚大学团队也指出,训练模型需要大量运算能力,只有大型科技公司才能负担。

据了解,尽管 OpenAI 和 Google都没有透露产品运算成本,但第三方分析估计,ChatGPT 部分依赖 GPT-3 模型,训练需消耗1287兆瓦时电力,产生550多吨二氧化碳当量,相当于一个人飞机往返中国上海和乌鲁木齐间550次。这个数字表面上看起不算多,但考虑到人工智能不仅要训练,将来还要执行数百万用户要求的工作。如此算来,碳排放数不可小看。

此外,如果把 ChatGPT当成独立产品,与整合到应用有很大不同。瑞银估计,ChatGPT日均独立用户为 1300 万,此基础下必要应用每天处理5亿次搜索。对此,加拿大资料中心公司QScale联合创办人Martin Bouchard表示,根据他对微软和Google搜寻的了解,搜寻引擎加入人工智能,需每次搜索至少增加 4~5 倍的计算量。

来自国际能源署的资料显示,数据中心总温室气体排放量已达全球排放量1%左右,即便搜索引擎企业承诺减少排放,但随着云端运算需求成长,这数字只会上升。对科技大厂来说,减少人工智能整合到搜索引擎产生的碳足迹和能源成本,方法之一就是将资料中心转用更清洁的能源,并重新设计神经网路,更高效以减少推断时间,也就是强化演算法运算能力。

Google 发言人 Jane Park 曾表示,Google 聊天机器人 Bard 最初版为轻量级大型语言模型,还发表研究介绍最先进语言模型的能源成本,包括早期和更大型的 LaMDA,结果说明高效模型、处理器和资料中心与清洁能源结合,可将机器学习系统碳足迹减少千倍。

科闻社版权声明:转载时标注原文链接不构成侵权


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1