“十年前,全世界最好的人工智能系统都无法以人类水平对图像中的物体进行分类。人工智能在语言理解方面困难重重,更无法破解数学领域。如今,人工智能系统在标准基准上的表现已广泛超过人类。”
今年,斯坦福 HAI 研究所的人工智能指数报告如期而至。据 AI Index 联合总监 Ray Perrault 介绍,2023 年人工智能领域进展迅猛,科技公司正在竞相构建相关产品,GPT-4、Gemini 和 Claude 3 等先进工具带来令人印象深刻的多模态功能,正越来越多地被公众使用;但当前的人工智能技术仍存在重大问题,如无法可靠处理事实、进行复杂推理以及结论解释。
在长达 393 页的《2024 人工智能指数报告》中,斯坦福 HAI 研究所不仅更广泛地涵盖基本趋势,如人工智能的技术进步、公众对技术的看法以及围绕其发展的地缘政治动态,还详细分析了比以往更多的原始数据。
下面 15 张图表反映了整个 AI 领域 2023 年的状况和 2024 年的态势。
生成式 AI 投资激增
虽然去年人工智能的私人投资下降、全球对人工智能的总体投资连续第二年下降,但生成式 AI 领域的私人投资激增,比 2022 年增长了近八倍,达到 252 亿美元。并且,大部分对生成式 AI 的私人投资都发生在美国。
报告的主编 Nestor Maslej 表示,“去年的资本形势代表了人们对生成式 AI 的反应,无论是在政策和公众舆论上,还是行业投资中。”
谷歌在基础模型竞赛中占据主导地位
2023 年,工业界产生了 51 个著名的机器学习模型,而学术界仅贡献了 15 个。其中,谷歌发布的基础模型数量最多。
科技公司发布基础模型既是为了推动先进技术向前发展,也是为了给开发人员提供构建产品和服务的基础。自 2019 年以来,谷歌一直在发布基础模型方面处于领先地位,OpenAI 次之。
封闭模型优于开源模型
目前,人工智能领域的热门争论之一是基础模型应该是开源的还是封闭的,一些人认为开源模型是危险的,而另一些人表示是开源模型推动了创新。该报告并没有对其进行权衡,而是着眼于各自的发布趋势和基准表现。
2023 年全球发布的新大型语言模型数量比上一年翻了一番,在发布的 149 个基础模型中,98 个是开源的,23 个通过 API 提供部分访问,28 个是封闭的。虽然三分之二是开源的,但性能最高的模型来自拥有封闭系统的行业参与者。在许多常用的基准测试中,封闭模型的表现优于开源模型。
基础模型变得超级昂贵
培训一个大模型需要多深的财力?据报告显示,AI 模型训练成本随着时间的推移急剧增加,如今先进 AI 模型的训练成本已达到了前所未有的水平。其中,OpenAI 的 GPT-4 和谷歌的 Gemini Ultra 分别需要 7800 万美元和 1.91 亿美元的训练成本。
有趣的是,谷歌 2017 年发布的 Transformer 模型引入了支撑当今几乎所有大型语言模型的架构,其训练成本仅为 930 美元。
大量释放碳足迹
训练 AI 模型对环境的影响不可忽视,虽然推理的每次查询排放可能相对较低,但当模型每天被查询数千次甚至数百万次时,总影响足以超过训练。
并且,由于模型规模、数据中心能源效率和能源电网的碳强度等因素,不同模型的碳排放数据差异很大。例如,Meta 的 Llama 2 70B 模型释放了约 291.2 吨碳,这几乎是一名旅客从纽约到旧金山往返航班上碳排放量的 291 倍,是普通美国人一年总碳排放量的 16 倍。然而,Llama 2 的碳排放量仍低于 OpenAI 的 GPT-3 训练期间释放的 502 吨。
美国在基础模型方面处于领先地位
2023 年,全球大多数基础模型来自美国(109 个),其次是中国(20 个)和英国。自 2019 年以来,美国在发布的基础模型数量和被认为是重大技术进步的人工智能系统数量都处于领先地位。此外,报告指出,中国在授予的人工智能专利和工业机器人的安装中处于领先地位。
工业界的博士浓度更高
新晋的人工智能博士毕业后选择在哪里工作?据报告中强调,进入工业界的人工智能博士毕业生越来越多。2011 年,工业界(40.9%)和学术界(41.6%)的就业比例还大致相同。到 2022 年,毕业后选择加入工业界的比例就大得多,达到 70.7%。但在过去五年中,进入政府职位的人工智能博士毕业生比例一直相对较低,稳定在 0.7% 左右。
报考人员的多样性增加
与高等教育 CS 的趋势类似,AP CS 考生的种族多样性正在增加。虽然白人学生仍然是最大的群体,但随着时间的推移,亚裔、西班牙裔 / 拉丁裔 / 拉丁裔和黑人 / 非裔美国学生参加 AP CS 考试的人数有所增加。
财报电话会议中的提及次数增加
在过去的一年里,在财富 500 强公司财报电话会议上提到人工智能的人数显著增加。2023 年,有 394 次财报电话会议提到了人工智能(占所有财富 500 强公司的近 80%),高于 2022 年的 266 次。自 2018 年以来,《财富》500 强财报电话会议中提及 AI 的次数几乎翻了一番。
而在所有财报电话会议中,最常被提及的主题是生成式 AI,占所有财报电话会议的 19.7%,其次是人工智能投资、人工智能能力扩展和人工智能增长计划(15.2%),最后是公司 / 品牌人工智能(7.6%)。
成本下降,收入增加
报告表明,人工智能切实帮助企业提高了利润,有 42% 的受访者表示他们看到了成本的降低,59% 的受访者声称收入增加了,而这反映了工作效率的提高和工人生产力的提高。
此外,不同领域的多项研究表明,人工智能使工人能够更快地完成任务并产生更高质量的工作,但人工智能对低技能工人的帮助大于对高技能工人的帮助。还有一些研究警告说,在没有适当监督的情况下使用人工智能会导致性能下降。
企业感知到风险
该报告对 1000 家收入至少为 5 亿美元的公司进行了一项全球调查,以了解企业如何看待负责任的 AI。结果显示,隐私和数据治理被认为是全球最大的风险,而公平性(通常以算法偏见为讨论)仍未在大多数公司中得到认可。目前,企业正在对其感知到的风险采取行动:各地区的大多数组织已经实施了至少一项负责任的人工智能措施来应对相关风险。
人工智能并没有完全打败人类
近年来,人工智能系统在一系列任务上的表现都超过了人类,包括图像分类、视觉推理和英语理解方面的一些基准。然而,它在更复杂的任务上落后了,比如竞赛级的数学、视觉常识推理和规划。
缺乏对人工智能的标准化评估
其最新研究表明,负责任的人工智能报告严重缺乏标准化。例如,OpenAI、Google 和 Anthropic 在内的领先开发人员主要根据不同的负责任的 AI 基准测试他们的模型,这种做法使系统地比较顶级人工智能模型的风险和局限性变得困难。
法律既促进又限制人工智能
2016 年至 2023 年期间,有 33 个国家至少通过了一项与人工智能相关的法律,其中大部分行动发生在美国和欧洲。在此期间,总共通过了 148 项与人工智能相关的法案,归类为旨在增强一个国家人工智能能力的扩张性法律和限制人工智能应用和使用的限制性法律。虽然许多法案都在推动人工智能的发展,但限制性立法是全球趋势。
公众对人工智能更加焦虑
在 lpsos 的一项调查中,2023 年有 52% 的人表示对人工智能产品和服务感到紧张,比 2022 年上升了 13 个百分点;现在有三分之二的人预计人工智能将在未来几年内深刻改变他们的日常生活。此外,报告指出,不同人群之间的观点存在显著差异,年轻人更倾向于对人工智能将如何改变他们的生活持乐观态度。
有趣的是,很多对于人工智能的悲观情绪来自西方发达国家。而印度尼西亚和泰国等地的受访者表示,他们预计人工智能的好处将大于其危害。
参考链接:
https://spectrum.ieee.org/ai-index-2024
https://hai.stanford.edu/research/ai-index-report
https://aiindex.stanford.edu/report/
钛媒体视频 2023-02-07