当前位置:首页|资讯|斯坦福|人工智能

斯坦福2023人工智能指数报告:衡量人工智能趋势公开!

作者:BFT白芙堂机器人发布时间:2023-04-13


原创 | 文BFT机器人



人工智能指数,是斯坦福大学人工智能研究所的一项独立倡议,由人工智能指数指导委员会领导,该委员会是由来自学术界和工业界的跨学科专家组成。该年度报告跟踪、整理、提炼和可视化与人工智能有关的数据,使决策者能够采取有意义的行动,在考虑到人类的情况下负责任地推进人工智能。


人工智能指数与许多不同的组织合作,追踪人工智能的进展。这些组织包括:乔治敦大学的安全和新兴技术中心、LinkedIn、NetBase Quid、Lightcast和麦肯锡。


2023年的报告还比以往有更多的自我收集的数据和原始分析。包括对基金会模式的新分析,包括其地缘政治和培训成本,人工智能系统的环境影响,K-12人工智能教育,以及人工智能的舆论趋势。


人工智能指数还扩大了对全球人工智能立法的跟踪,从2022年的25个国家扩大到2023年的127个。



01 研究与发展


  • 从2010年到2021年,美国和中国在AI出版物方面的跨国合作数量最多,尽管此后合作的步伐有所放缓


自2010年以来,美国和中国之间的人工智能研究合作数量大约增加了4倍,是排名第二的英国与中国合作数量的2.5倍。然而,2010到2021年,美中合作的总数只增加了2.1%,增幅放缓。

  • AI研究正在全面上升


自2010年以来,人工智能出版物的总数已经增加了一倍多,继续主导研究人工智能领域的具体课题包括模式识别、机器学习和计算机视觉。



  • 中国在AI期刊、会议和文献库出版物的总量上继续领先


在人工智能会议和资源库的引用方面,美国仍然领先,但这些领先优势正在慢慢被削弱。尽管如此,世界上大多数大型语言和多模态模型(2022年为54%)仍是由美国机构制作的。


  • 工业界领先于学术界


直到2014年,大多数重要的机器学习模型是由学术界发布的。但自那时后,重要的机器学习模型由工业界接管。


2022年,有32个重要的行业生产的机器学习模型,而学术界只生产了三个。建立最先进的人工智能系统越来越需要大量的数据、计算机能力和资金,与非营利组织和学术界相比,工业界的从业者本来就拥有更多的资源。



  • 大型语言模型越来越大,越来越昂贵


2019年发布的GPT-2,被许多人认为是第一个大型语言模型,有15亿个参数,估计训练成本为5万美元。


PaLM是2022年推出的旗舰大型语言模型之一,有5400亿个参数,成本估计为800万美元--PaLM比GPT-2大360倍左右,成本高160倍。


不仅仅是PaLM:从整体上看,大型语言和多模态模型正在变得更大、更贵。




02 技术性能


  • 传统基准上的性能饱和


人工智能继续发布最先进的结果,但许多基准的同比改善仍然是微不足道的。此外,达到基准饱和的速度正在增加。然而,新的、更全面的基准测试套件,如BIG-bench和HELM也被发布。



  • 生成性AI闯入公众的意识


2022年,发布了像DALL-E 2和稳定扩散这样的文本到图像模型,像Make-A-Video这样的文本到视频系统,以及像ChatGPT这样的聊天机器人。尽管如此,仍有缺陷,使得关键应用很难依赖它们。



  • AI系统变得更加灵活


传统上,人工智能系统在狭窄的任务上表现良好,但在更广泛的任务上却举步维艰。最近发布的模型挑战了这一趋势;BEiT-3、PaLI和Gato等等,这些单一的人工智能系统越来越有能力驾驭多种任务(例如,视觉、语言)。



  • 有能力的语言模型在推理方面仍有困难


语言模型继续提高它们的生成能力,但新的研究表明,它们仍然在复杂的规划任务中挣扎。



  • AI对环境既有帮助也有损害


新的研究表明,人工智能系统会对环境产生严重影响。


根据Luccioni等人的研究,2022年,BLOOM的训练运行所排放的碳比一个从纽约到旧金山的单程航空旅行者多25倍。


尽管如此,像BCOOLER这样的新强化学习模型却表明,人工智能系统可以用来优化能源使用。



  • 世界上最好的新科学家...AI?


人工智能模型开始迅速加速科学进步,在2022年被用来帮助氢融合,提高基质操作的效率,并产生新的抗体。



  • AI开始建立更好的AI


Nvidia使用了一个人工智能强化学习代理来改进为人工智能系统提供动力的芯片的设计。同样,谷歌最近使用其语言模型之一,PaLM,来建议如何改进同一模型。自我改进的人工智能学习将加速人工智能的进步。



03  技术性AI伦理


  • 模型规模对偏差的影响被训练数据和缓解方法缓解


在过去的一年里,一些机构建立了自己的大型模型,并在专有数据上进行了训练,虽然大型模型仍有缺陷和偏见,但新的证据表明,在用指令调谐训练大型模型后,这些问题可以得到一定程度的缓解。



  • 产生式模型已经到来,其伦理问题也随之而来

2022年,生成模型成为时代潮流的一部分。这些模型是有能力的,但也有道德上的挑战。文本—图像生成器通常在性别方面存在偏见,而像ChatGPT这样的聊天机器人也可以被有心人利用,用于欺骗等邪恶目的。



  • 有关滥用AI的事件数量正在迅速上升


根据追踪人工智能道德滥用相关事件的AIAAIC数据库,自2012年以来,人工智能事件和争议的数量增加了26倍。


2022年的一些值得注意的事件包括乌克兰总统沃洛迪米尔-泽伦斯基(Volodymyr Zelenskyy)投降的深度伪造视频和美国监狱对其囚犯使用呼叫监控技术。这种增长既证明了对人工智能技术的更多使用,也证明了对滥用可能性的认识。



  • 更公平的模型可能不会有较少的偏见

对语言模型的广泛分析表明,虽然性能和公平性之间有明显的相关性,但公平性和偏见可能是不一致的:在某些公平性基准上表现较好的语言模型往往有较差的性别偏见。



  • 对AI伦理的兴趣继续激增


FAccT是一个领先的人工智能伦理学会议,自2021年以来,接受的材料数量增加了一倍多,自2018年以来增加了10倍。2022年,业界人士提交的材料也比以往多。



  • 使用自然语言处理的自动事实核查毕竟不是那么简单的事


虽然已经为自动事实核查制定了一些基准,但研究人员发现,16个这样的数据集中有11个依赖事实核查报告中 "泄露 "出来的证据,而这些证据在索赔浮出水面时并不存在。




04  经济

  • 几乎所有的美国工业部门对与AI相关的专业技能的需求都在增加


在美国有数据的每个部门中(除农业、林业、渔业和狩猎业外),与人工智能相关的工作岗位数量平均从2021年的1.7%增加到2022年的1.9%。美国的雇主正越来越多地寻找具有人工智能相关技能的工人。



  • 对AI的私人投资逐年减少,这在过去十年中是第一次


2022年,全球人工智能私人投资为919亿美元,自2021年以来下降了26.7%。与人工智能相关的融资事件总数以及新融资的人工智能公司数量同样减少。
不过,在过去的十年中,人工智能投资仍然大幅增加。2022年,人工智能的私人投资金额是2013年的18倍。



  • 美国在人工智能方面的投资再次领先

在人工智能私人投资总额方面,美国领先于世界。2022年,在美国投资的474亿美元大约是次高国家中国(134亿美元)投资额的3.5倍。在新投资的人工智能公司总数方面,美国也继续领先,比欧盟和英国加起来多1.9倍,比中国多3.4倍。



  • 在2022年,投资最多的AI重点领域是医疗和保健(61亿美元);其次是数据管理、处理和云(59亿美元);以及金融技术(55亿美元)。

2022年,最大的三起人工智能私人投资事件是:(1)中国电动汽车制造商广汽新能源汽车融资25亿美元;(2)美国国防产品公司Anduril Industries的15亿美元E轮融资,该公司为军事机构和边境监控打造技术;(3)总部位于德国的商业数据咨询公司Celonis的12亿美元投资。



  • 虽然采用人工智能的公司比例趋于平稳,但已经采用人工智能的公司继续领先


根据麦肯锡的年度研究调查结果,2022年采用人工智能的公司比例自2017年以来增加了一倍多,实现了有意义的成本下降和收入增加。



  • 企业正在以多方面的方式部署人工智能


最有可能被植入企业的人工智能能力包括机器人流程自动化(39%)、计算机视觉(34%)、NL文本理解(33%)和虚拟代理(33%)。


此外,2022年最常采用的人工智能用例是服务运营优化(24%),其次是创建基于人工智能的新产品(20%),客户细分(19%),客户服务分析(19%),以及基于人工智能的新产品增强(19%)。



  • 像copilot这样的AI工具正在实实在在地帮助工人


GitHub对Copilot(一种文本到代码的人工智能系统)使用情况的调查结果发现,88%的受访者在使用该系统时感觉工作效率更高,74%的人认为他们能够专注于更令人满意的工作,88%的人认为他们能够更快地完成任务。


  • 中国在工业机器人安装方面占主导地位


2013年,中国超过了日本,成为安装工业机器人最多的国家。自那时起,中国安装的工业机器人总数与次要国家之间的差距扩大。2021年,中国安装的工业机器人比世界其他国家的总和还要多。




05  教育


  • 越来越多的AI专门化


美国大学新毕业的计算机科学博士生中,专攻人工智能的比例从2020年的14.9%和2010年的10.2%跃升到2021年的19.1%。



  • 新的AI博士越来越多地走向工业界


2011年,新的人工智能博士毕业生在工业界(40.9%)和学术界(41.6%)的工作比例大致相同。然而,从那时起,大多数人工智能博士已经走向了工业界。2021年,65.4%的人工智能博士在工业界工作,比在学术界工作的28.2%高出一倍多。



  • 北美地区新招聘的理科生、文科生和信息专业的教师人数保持不变


在过去十年中,北美计算机科学(CS)、计算机工程(CE)和信息学的新聘教师总数已经减少:2021年的总聘用人数为710人,而2012年为733人。同样,终身聘用的总人数在2019年达到了422人的高峰,然后在2021年下降到324人。



  • 美国私立与公立的理科大学在外部研究资金方面的差距继续扩大


2011年,美国私立和公立CS系用于计算研究的外部来源总支出的中位数大致相同。
自那时起,这一差距已经扩大,美国私立CS系获得的额外资金比公立大学多出数百万。2021年,私立大学的支出中位数为970万美元,而公立大学则为570万美元。



  • 美国和世界其他国家对K-12 AI和计算机科学教育的兴趣都在增长


2021年,美国学生共参加了181,040次AP计算机科学考试,比前一年增长了1.0%。自2007年以来,AP计算机科学考试的数量已经增加了9倍。截至2021年,包括比利时、中国和韩国在内的11个国家已经正式认可并实施了K-12人工智能课程。




06  政策和治理


  • 从谈论到颁布,美国通过的美国法案比以往任何时候都多


2021年,美国所有联邦人工智能法案中只有2%被通过成为法律。这个数字在2022年跃升至10%。同样,去年所有州级人工智能法案中有35%被通过成为法律。



  • 谈到AI,政策制定者有很多想法


对一组不同国家的议会程序进行的定性分析显示,政策制定者从广泛的角度思考人工智能问题。
例如,在2022年,英国的立法者讨论了人工智能主导的自动化的风险;日本的立法者考虑了在人工智能面前保障人权的必要性;赞比亚的立法者研究了使用人工智能进行天气预报的可能性。



  • 美国政府继续增加对AI的支出


自2017年以来,美国政府人工智能相关的合同支出金额大约增加了2.5倍。



  • 法律界对AI的认识正在觉醒


2022年,美国州和联邦法院有110起与人工智能有关的法律案件,大约是2016年的7倍。这些案件大多起源于加利福尼亚州、纽约州和伊利诺伊州,并涉及与民事、知识产权和合同法有关的问题。




07 多样性


  • 北美本科、硕士和博士级别的计算机科学学生正变得更加种族多样化


虽然白人学生仍然是新的本科、硕士和博士级别的计算机科学毕业生中最有代表性的种族,但来自其他种族背景的学生(例如,亚洲人、西班牙人、黑人或非洲裔美国人)的比例越来越高。例如,在2011年,71.9%的新CS本科毕业生是白人。2021年,这个数字下降到46.7%。



  • 新的AI博士仍然以男性居多


2021年,78.7%的新AI博士是男性。只有21.3%是女性,比2011年增加了3.2个百分点。在更高层次的人工智能教育中,仍然存在着性别不平衡的现象。


  • 女性在科学、技术和信息学院的聘用中占的比例越来越大


自2017年以来,新聘用的女性CS、CE和信息教员的比例从24.9%增加到30.2%。尽管如此,北美大学的大多数CS、CE和信息专业的教师都是男性(75.9%)。截至2021年,只有0.1%的CS、CE和信息类教师认定为非二进制。



  • 美国的K-12计算机科学教育在性别和种族方面都变得更加多样化


女生参加AP计算机科学考试的比例从2007年的16.8%增加到2021年的30.6%。同比之下,亚洲人、西班牙裔/拉丁裔/拉美裔和黑人/非洲裔学生参加AP计算机科学考试的比例也同样增加。



08 舆论


  • 中国公民是对美国产品和服务感受最积极的人群之一


在2022年IPSOS的调查中,78%的中国受访者(在接受调查的国家中比例最高)同意“使用人工智能的产品和服务的好处多于坏处”的想法。


在中国受访者之后,来自沙特阿拉伯(76%)和印度(71%)的受访者对人工智能产品感到最积极。只有35%的抽样美国人(在被调查国家中比例最低)同意使用人工智能的产品和服务的好处多于坏处。



  • 男性对人工智能产品和服务的感觉往往比女性更积极


男性也比女性更有可能相信人工智能将主要是帮助而不是伤害。根据2022年IPSOS的调查,男性比女性更有可能表示人工智能产品和服务使他们的生活更轻松,信任使用人工智能的公司,并认为人工智能产品和服务的好处多于坏处。


盖洛普和劳合社基金会2021年的一项调查同样显示,男性比女性更有可能同意这样的说法:在未来20年,人工智能大多会帮助而不是损害他们的国家。



  • 世界各地,特别是美国的人们仍然不相信自动驾驶汽车


在一项全球调查中,只有27%的受访者表示在自动驾驶汽车中感到安全。同样,研究表明只有26%的美国人认为无人驾驶乘用车对社会是一个好主意。



  • 引起兴奋和关切的不同原因


在接受调查的美国人样本中,那些报告对人工智能感到兴奋的人最兴奋的是有可能使生活和社会变得更好(31%),以及节省时间和使事情更有效率(13%)。那些报告说感到更担心的人担心人类工作的流失(19%);监视、黑客和数字隐私(16%);以及缺乏人际联系(12%)。



  • NLP研究人员......也有一些强烈的意见


根据一项广泛分发给NLP研究人员的调查,77%的人同意或不太同意私人AI公司有太多的影响力,41%的人说NLP应该被监管,73%的人认为AI很快就会带来革命性的社会变化。这些是NLP研究界持有的许多强烈意见中的一部分。



文章来源:https://aiindex.stanford.edu/report/ 


更多精彩内容请关注公众号:BFT机器人
版权归BFT机器人所有,如需转载请与我们联系。若您对该文章内容有任何疑问,请与我们联系,将及时回应。



Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1