当前位置:首页|资讯|生成式AI

生成式AI竞赛的背后,有一个“肮脏”的秘密

作者:神译局发布时间:2023-02-28

神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。

编者按:像 ChatGPT 这样的大型语言模型能帮助我们实现更好的搜索结果,给我们的生活带来便利,但它也有不好的一面:为了提升搜索体验,训练和运行大型语言模型产生的碳排放量是巨大的。本文来自编译,希望对您有所启发。

ILLUSTRATION: JACQUI VANLIEW; GETTY IMAGES

二月初,先是谷歌,然后是微软,宣布对他们的搜索引擎进行了重大改革。这两家科技巨头都在构建或购买生成式人工智能工具上投入巨资,这些工具能使用大型语言模型来理解和回答复杂的问题。现在,他们正试图将其整合到搜索中,希望能给用户提供更丰富、更准确的体验。

但对这些新工具的兴奋之情可能掩盖了一个肮脏的秘密——构建高性能人工智能搜索引擎的竞赛可能需要计算能力的大幅提升,随之而来的是科技公司所需的能源和碳排放量的大幅增加。

英国萨里大学(University of Surrey)网络安全教授艾伦·伍德沃德(Alan Woodward)表示:“已经有大量资源用于索引和搜索互联网内容,但人工智能的加入则会将做这件事所需的能源和资源提升到另一个层次。它需要高效的处理能力、存储能力和搜索能力。每当我们看到在线处理的进一步变化时,就会看到大型处理中心所需的电力和冷却资源在显著增加。”

训练大型语言模型(LLMs),比如 OpenAI 的 ChatGPT(它将为微软的必应搜索引擎提供支持),以及谷歌的同类产品 Bard,意味着在大量数据中解析和计算联系,这就是这些模型往往是由拥有大量资源的公司开发的原因。

“训练这些模型需要大量的计算能力,”西班牙拉科鲁尼亚大学的计算机科学家卡洛斯·戈麦斯·罗德里格斯(Carlos Gómez-Rodríguez)说,“现在,只有大型科技公司才能训练这些模型。”

虽然 OpenAI 和谷歌都没有说过他们各自产品的计算成本是多少,但研究人员的第三方分析估计,ChatGPT 部分基于 GPT-3 的训练消耗了 1287 兆瓦时,并导致了超过 550 吨的二氧化碳排放量,这相当于一个人在纽约和旧金山之间往返 550 次。

卡洛斯·戈麦斯·罗德里格斯表示:“这并没有那么糟糕,但你必须考虑到这样一个事实:你不仅要训练它,还要执行它,为数百万用户服务。”

投资银行瑞银(UBS)估计,ChatGPT 每天有 1300 万用户,将其作为一个独立产品使用,与将其整合到每天处理 5 亿次搜索的必应中,也有很大的区别。

加拿大数据中心公司 QScale 联合创始人马丁·布沙尔(Martin Bouchard)认为,根据他对微软和谷歌搜索计划的了解,在这一过程中添加生成式人工智能,需要“每次搜索至少增加 4 到 5 倍的计算量”。他指出,ChatGPT 目前对 2021 年底之后的事情是不理解的,这在一定程度上减少了计算需求。

但为了满足搜索引擎用户日益增长的需求,这将不得不改变。他说:“如果他们要经常重新训练模型,并添加更多参数之类的东西,计算量的规模就完全不同了。”

这将需要在硬件上进行大量投资。布沙尔说:“我们现有的数据中心和基础设施将无法应对(生成式人工智能的竞争)。计算量太大了。”

根据国际能源署(International Energy Agency)的数据,数据中心的温室气体排放量已经占到全球温室气体排放量的 1% 左右。随着云计算需求的增长,这一数字预计还会上升,但运营搜索引擎的公司已承诺将减少自身对全球变暖的净贡献。

卡洛斯·戈麦斯·罗德里格斯表示:“这绝对没有运输业或纺织业那么糟糕。但(人工智能)可能成为碳排放的一个重要来源。”

微软已经承诺到 2050 年实现碳负排放。该公司计划今年购买 150 万吨碳信用额。谷歌承诺到 2030 年在其整个业务和价值链实现净零排放。OpenAI 和微软没有回应记者的置评请求。

为了减少“将人工智能集成到搜索中”的环境足迹和能源成本,可以将数据中心转移到更清洁的能源上,以及重新设计神经网络以提高效率,减少所谓的“推理时间”(即算法在新数据上工作所需的计算能力)。

谢菲尔德大学(University of Sheffield)自然语言处理讲师纳菲思·沙达特·穆塞维(Nafise Sadat Moosavi)说:“我们必须研究如何减少这种大型模型所需的推理时间,”她致力于自然语言处理的可持续性研究,“现在是关注效率方面的一个好时机。”

谷歌发言人简·帕克(Jane Park)告诉《连线》杂志,谷歌最初发布的 Bard 版本是由一个轻量级大型语言模型提供支持的。

帕克说:“我们还发表了一项研究,详细介绍了最先进的语言模型的能源成本,包括早期和更大版本的 LaMDA。我们的研究结果表明,将高效的模型、处理器和数据中心与清洁能源相结合,可以将[机器学习]系统的碳足迹减少 1000 倍。”

问题是,至少在谷歌的情况下,为了获得在搜索准确性上的微小进步,而付出所有额外的计算能力和麻烦是否值得。但是穆塞维说,虽然关注 LLMs 产生的能源和碳足迹很重要,但我们也需要注意到大型语言模型的积极方面。

她说:“这对终端用户来说是件好事。因为之前的大型语言模型并不是每个人都能使用得到的。”

译者:Jane


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1