人工智能治理的迫切性
人工智能(AI)长期以来一直吸引着大众的想象力。自20 世纪初以来,智能机器人一直是科幻小说的主题,并在1940年代和 1950年代通过艾萨克·阿西莫夫的《我,机器人》(Asimov,1950)等电视剧普及开来。1950年代,艾伦·图灵和兰德公司等人的开创性工作使AI成为了一个严肃、重要的研究领域(Turing,1951;Newell andSimon,1956;KlahrandWaterman,1986)。随着时间的推移,研究人员、开发人员和决策者对AI采取了新的方法,对AI能力的兴趣和宣传也随之起起伏伏。然而,生成式人工智能系统和大型语言模型(LLMs,如ChatGPT)的最近发展标志着人工智能进步、商业化和政策制定兴趣的显著变化。
新的 AI能力重新引起了人们对 Al的感知利益和风险的兴趣。据说鉴于其“在使我们的世界更加繁荣、富有成效、创新和安全的同时帮助解决紧迫挑战的潜力”(行政命令14110,2023年),AI对社会和人类福祉具有巨大的潜在利益。最近的发展也重新引起了人们对与 AI相关的风险的关注,这些风险既有迫在眉睫和具体的,也有未来主义和推测性的。一些研究人员警告说,AI可能会对社会产生负面影响,包括自动化程度提高导致的失业、在重大决策中嵌入偏见以及因放大虚假信息和社会媒体操纵而导致的失去社会凝聚力(Ntoutsi等2020年;Bender等,2021年;Marcellino等,2023年;Posada、Newlands和 Miceli,2023)。其他人指出,人工智能技术对国民经济至关重要。
同时,其他人也记录了人工智能,特别是生成式人工智能和 LLMs对人类生命和福祉构成的风险,包括与生物或核武器有关的风险,甚至是对人类的生存风险(Mouton、Lucas和Guest,2023;Geist,2023年:Bengio等人,2023年;AI安全中心,未注明日期)
这些担忧导致人们更加关注人工智能的监管和治理。2023年的一项范围广泛的行政命令阐明了人工智能系统开发和使用的原则和优先事项,并指派行政部门中的许多利益相关者从事与人工智能安全和风险管理相关的任务(行政命令14110,2023年)。美国商务部还寻求通过针对开发和训练前沿人工智能模型所需的硬件实施出口管制,保持美国在人工智能领域的优势(工业与安全局,2023;斯旺森,2023)。此外,美国还寻求就如何负责任地使用人工智能,特别是用于军事目的达成国际共识(军备控制、威慑和稳定局,2023年)。
许多政府以外的利益相关者为人工智能治理提出了解决方案,其中一些是基于历史类比。0penAl首席执行官萨姆·奥尔特曼(SamAltman)建议成立一个国际机构,如国际原子能机构(IAEA),来监督人工智能的发展(Gambrell,2023)。其他人呼吁采用“拥抱开放、透明和广泛接触”的治理方式,作为最大限度地提高人工智能效益和最小化风险的最佳方式(Mozilla,2023)。然而,其他人基本上呼吁暂停某些人工智能研究领域,这与过去暂停基因工程实验的呼吁类似(未来生活研究所,2023年;未来生活研究所,2017年)。
免责声明:我们尊重知识产权、数据隐私,只做内容的收集、整理及分享,报告内容来源于网络,报告版权归原撰写发布机构所有,通过公开合法渠道获得,如涉及侵权,请及时联系我们删除,如对报告内容存疑,请与撰写、发布机构联系