随着通用人工智能的迅猛发展,其监管问题已成为各国政府关注的核心议题。元战略梳理概括美国布鲁金斯学会在通用人工智能监管方面的最新研究,探讨欧盟和美国的趋同和分歧,旨在为读者提供一个清晰的视角,以更好地理解当前通用人工智能监管的全球格局及其对未来技术发展的潜在影响。
#1
欧 盟
随着通用人工智能模型被整合到各个领域的众多人工智能系统中,欧盟委员会强调,这些模型“对经济和社会十分重要,必须对此加以监管”,同时明确支持可信赖的创新。欧盟于2023年12月就《欧盟人工智能法案》达成政治协议。该法案于2024年2月获得27个成员国代表的一致通过,并于2024年3月获得欧洲议会批准。《人工智能法案》与通用人工智能模型相关的规则将在该法案发布12个月后适用。
监管方法的迭代都反映出对人工智能的潜在机遇和风险的更深入认识,以及制定有关通用人工智能模型的更简明规则的必要性。这些模型可以通过下游人工智能应用产生变革性影响,例如,从改善医学中的药物发现过程到更加个性化的教育。许多可感知的应用领域预计将产生重大的经济效应。与此同时,公众对相关风险的认识不断提高,也推动了对直接监管通用人工智能模型的关注。例如,欧盟委员会提到,强大的人工智能模型可能会导致严重事故,大规模传播有害偏见,或者由于其双重用途性质而被滥用于网络犯罪。欧盟对通用人工智能模型的监管方式集中在人工智能价值链上的责任公平分担方面,包括通用人工智能模型开发者和在这些模型上构建应用程序的下游提供商。
目前,少数资源充足的模型开发商拥有对通用人工智能生态系统产生重大影响所需的资源,例如与微软合作的OpenAI、谷歌DeepMind、Anthropic或Meta。少数欧洲初创企业(如Mistral AI或Aleph Alpha)正在开发模型,与老牌企业竞争。欧盟中小企业表示,它们对通用人工智能模型子集的依赖让它们感到十分担忧。欧洲各民间社会组织支持这一观点,它们主张“根据《人工智能法案》明确规定义务,避免小型提供商和用户承担原本为初始开发商应承担的大部分义务”。
因此,除了以基于风险的方式监管建立在通用人工智能模型之上的许多特定用例系统之外,《欧盟人工智能法案》还旨在确保人工智能价值链的更大程度的透明度。该法案要求所有通用人工智能模型的提供商向下游系统提供商披露某些信息,以便更好地了解底层模型。具体来说,提供商需要起草技术文档或提供用于模型训练的内容摘要,并解释他们如何遵守现有的欧盟版权法。没有系统性风险的免费开源模型提供商被免除了大部分这些透明度义务,因为他们被认为已经确保了高度的开放性。用于市场发布前研发的模型也不受该法规的约束。
此外,欧盟承认某些通用人工智能模型有可能带来系统性风险,特别是如果它们非常强大或被广泛使用。目前,使用总计算能力超过1025FLOPs(浮点运算)训练的模型被推定为具有系统性风险,因为使用更多计算能力训练的模型往往性能更强大。根据《人工智能法案》,该阈值可根据技术进步进行更新,并可应用进一步的标准来指定具有系统性风险的模型,例如用户数量或模型的自主程度。对于可能代表系统性风险的通用人工智能模型,《欧盟人工智能法案》要求遵守更严格的规则。提供商需要特别评估和减轻系统性风险、进行模型评估和对抗性测试、报告严重事件并确保网络安全。
在管理方面,欧盟已在欧盟委员会内设立一个欧盟人工智能办公室,特别负责执行有关通用人工智能模型的规则,加强可信人工智能的开发和使用,并促进国际合作。欧盟人工智能办公室将得到一个由独立专家组成的科学小组的支持,该小组应成为有关能力进步和其他人工智能趋势、潜在益处和新风险的专业知识中心。欧盟人工智能办公室将在对具有系统性风险的模型进行分类方面发挥重要作用,并将促进和监督制定通用人工智能模型提供者行为准则的详细规则,这些准则由行业、科学界、民间社会和其他专家共同制定。认识到开源模型的潜在优势和独特挑战,欧盟将建立一个专门的开源社区合作论坛,以确定和制定安全开发和使用的最佳做法。人工智能办公室有权要求模型提供者提供更多信息,直接或通过指定专家强制进行模型评估,要求提供者采取纠正措施,并处以罚款,从而监督规则的实施。
欧盟治理通用人工智能的方法取决于设立拥有相关专业知识和资源的人工智能办公室。制定详细规则的灵活性需要与对不断发展的人工智能格局的深入了解和最先进的措施相结合,以便通过制定有针对性的法律框架来兑现促进值得信赖的人工智能创新的承诺。
#2
美 国
2023年10月30日,美国总统拜登签署了关于“安全、可靠和值得信赖地开发和使用人工智能”的第14110号行政命令。该行政命令(EO)是迄今为止美国最全面的人工智能治理方法,涵盖从人工智能安全的新标准到隐私、公民权利、工人、创新、政府对人工智能的使用以及国际领导力等领域。
在行政令颁布之前,美国对人工智能的治理采取了自由放任的态度,没有一个专门针对通用人工智能的集中式联邦监管框架。各个联邦机构各自制定和实施针对特定需求和情况的人工智能新政策,但缺乏统一的国家战略。
然而,通用人工智能的最新发展已促使华盛顿的一些政策制定者对人工智能监管采取更为积极的立场,这反映在2023年9月8日在国会提出的美国人工智能法案两党框架等提案中。除其他提案外,该两党框架建议建立一个由独立监督机构管理的许可架构,要求开发通用人工智能模型或在高风险情况下使用模型的公司直接向指定机构注册。
虽然美国该行政令是第一项针对人工智能监管的集中化举措,但美国白宫在该行政令发布前一年已开始探索相关方法。例如,美国白宫科技政策办公室(OSTP)于2022年10月发布了《人工智能权利法案蓝图》以及几项相关机构行动。2023年5月,美国白宫会见了科技公司首席执行官,讨论“推进负责任的人工智能创新”问题。2023年7月,亚马逊、Anthropic、谷歌、Inflection AI、Meta、微软和OpenAI等美国领先的人工智能公司签署了美国白宫制定的一套自愿承诺,旨在确保人工智能的安全、可靠和值得信赖。2023年9月,人工智能生态系统中的另外八家公司——Adobe、Cohere、IBM、Nvidia、Palantir、Salesforce、Scale AI和Stability AI也承诺遵守自愿规则。
该行政命令包括重点关注“双重用途基础模型”,这些模型被定义为可能对经济、公共健康或安全以及国家安全构成风险的大型模型。为了对这些模型进行分类,该行政命令利用了基于模型训练的计算能力数量的阈值,这与欧盟人工智能法案中采用的方法相同。在安全方面,该行政命令指示美国商务部长通过美国国家标准与技术研究院(NIST)主任制定指导方针和最佳实践,以促进开发和部署安全、可靠和值得信赖的人工智能系统的行业共识标准,这包括创建评估和审计人工智能能力的基准。一个关键目标是使双重用途基础模型的开发人员能够进行人工智能红队测试,例如通过新的“测试平台”——用于对由基础模型驱动的工具和技术进行严格、透明和可复制测试的设施或机制。
行政命令规定,开发或打算开发潜在两用基础模型的公司应向联邦政府提供有关训练、开发或生产此类模型相关活动的持续信息,包括物理和网络安全保护。还需要根据NIST的额外指导报告模型权重的所有权和占有情况以及红队测试的结果。收购、开发或拥有大型计算集群的公司需要报告其存在、规模和位置,同时需要严格监控外国实体对模型的访问。美国商务部长将进一步定义一组需要报告的模型和计算集群的技术条件,初始要求与使用大于1026FLOPs的计算能力训练的任何模型相关。最后,人工智能与化学、生物、放射或核(CBRN)威胁的交集,以及人工智能系统创建的合成内容所带来的风险,也是行政命令下受到更多和更协调关注的领域。总之,行政命令代表了美国公共部门对基础模型开发的全面监督方法。
在治理方面,该行政令要求建立美国白宫人工智能委员会,在政府机构任命首席人工智能官,并在较小规模的机构内设立内部人工智能治理委员会。为确保各机构之间的全面协调,将成立由所有首席人工智能官组成的跨部门委员会。最后,NIST新成立的美国人工智能安全研究所将专注于与业界在双重用途基础模型等领域开展合作。
从某种程度上来说,这份行政命令可视为美国未来人工智能安全立法的路线图。美国商会最近在一封“致各州领导人的人工智能公开信”中表达了对各州政府杂乱无章的人工智能监管提案的担忧,这些提案可能会减缓人工智能效益的实现,并通过使合规变得复杂和繁重而扼杀创新。作为这些工作的一部分,美国人工智能安全研究所联盟(AISIC)召集了200多个组织,共同制定以科学为基础、有实证支持的人工智能衡量和政策指南和标准。然而,该行政命令的一个关键弱点是,它很容易被未来的总统撤销或更改。与美国国会通过的法律不同,国会通过的法律需要经过立法程序才能制定和修改,而行政命令只需动笔就可以撤销。
#3
欧盟和美国对通用人工智能
监管方法的比较
将欧盟《人工智能法案》与美国行政命令进行比较,可以发现一些直接的差异。美国行政命令主要概述了联邦机构应遵循的指导方针,以期塑造行业实践,但除了援引《国防生产法》的报告要求外,它并未对私营实体施加监管。另一方面,欧盟《人工智能法案》直接适用于在欧盟境内运营的任何通用人工智能模型提供商,这使得其在预期影响方面更为广泛。虽然美国行政命令可能会被修改或撤销,尤其是在选举变化的情况下,但欧盟《人工智能法案》在持久的治理结构中提出了具有法律约束力的规则。
美国行政命令和欧盟《人工智能法案》都以模型大小为基础制定了治理框架,但范围有所不同。通过将具有系统性风险的通用人工智能模型的阈值设定为1025FLOP(可灵活适应其他标准),欧盟有可能管理更广泛的人工智能模型,而美国的阈值则高出一个数量级。目前,尚无任何现有的人工智能模型能够达到美国的门槛,而根据估计,包括OpenAI和谷歌(DeepMind)在内的少数提供商可能会受到欧盟《人工智能法案》规则的约束。
美国在行政命令中管理通用人工智能的方法特别关注该技术的双重用途风险和潜力,而欧盟人工智能法案则更广泛地考虑系统性风险,其中还包括大规模歧视、重大事故和对人权的负面影响等。美国行政命令和人工智能法案还提到了人工智能的其他风险,但没有具体提到通用人工智能模型。这两个框架在其他通用人工智能措施上保持一致,例如对文档的需求、模型评估和网络安全要求。
虽然这两种方法本质上都是全面的,但美国联邦政府和欧盟可能面临在规定时间内执行计划的挑战,因为尽管最近进行了招募工作,但必要的专业知识可能存在差距。美国行政命令为联邦机构立即采取行动设定了最后期限,许多任务已经在开始的90天内完成,大多数任务需要在几百天内完成。《欧盟人工智能法案》中针对通用人工智能模型的规则预计将在2025年初制定出来。
从全球影响来看,美国行政令主要为美国国内政策定下基调,预计短期内对全球实践的影响仍将是间接的。另一方面,欧盟《人工智能法案》有可能像欧盟《通用数据保护条例》(GDPR)一样成为全球先例。鉴于欧洲市场的重要性,跨国公司可能会将部分人工智能治理实践与欧盟《人工智能法案》保持一致,以保持进入欧盟内部市场的渠道,而目前判断欧盟《人工智能法案》将在多大程度上发挥所谓的布鲁塞尔效应(即欧盟通过其庞大的内部市场和制度架构,单方面影响全球监管标准的能力)还为时过早。
#4
在人工智能治理方面
加强国际协调
虽然欧盟和美国在如何管理通用人工智能模型的问题上奉行不同的战略,但也有一些趋同的因素,它们最近与其他七国集团(G7)国家共同承诺制定一项人工智能行为准则(2023年9月7日达成一致),这表明它们在人工智能政策领域的合作正在加强。这份不具约束力的准则是新建立的广岛人工智能进程(2023年10月发布)的一部分。
自愿性的《开发先进人工智能系统组织的国际行为准则》可作为通用人工智能模型国际治理的重要基石,但其有效性取决于商定的具体规则以及行业的接受和采纳。该准则被描述为一份“非详尽的行动清单”,可由各组织认可,并将在必要时进行审查和更新。七国集团行为准则要想推动行业实践发生实质性变化,需要包括一个执行机制,可以是准则手册本身,也可以是通过与新出台的法规具有强相关性。
就美国而言,准则的自愿性与该国之前倾向于行业自治的做法十分吻合,而行政命令现在则引入了自愿准则和强制报告要求的组合,反映了一种更加细化的人工智能治理和监管方法。对欧盟来说,行为准则与欧洲人工智能办公室未来的任务相一致,即塑造人工智能影响的全球方法。七国集团的行为准则可能在短期内产生切实的影响,同时为利益相关的国家在长期加强协调方面奠定基础。
关于如何在人工智能治理方面达成更大的全球共识的紧迫问题依然存在。例如,在关注欧盟、美国和七国集团的相关工作时,一个关键问题是如何实现国内政策相互支持而非相互削弱的可互操作治理框架。根据七国集团的行为准则,二十国集团(G20)或联合国可以成为扩大这些对话的重要平台。注重放大不同的声音,尤其是来自代表性不足的国家和地区的声音,是促进包容性全球人工智能治理对话的另一个关键步骤。
免责声明:本文转自元战略。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!
转自丨元战略
研究所简介
国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。
地址:北京市海淀区小南庄20号楼A座
电话:010-82635522
微信:iite_er