走出去智库观察
4月5日-7日,欧盟委员会主席冯德莱恩来华访问。此前,欧盟一些国家对华政策较为强硬,中欧关系面临着严峻的潜在挑战,因此此访是在地缘政治博弈以及全球科技竞争等背景下的一次重要访问。
走出去智库《跨境监管和战略公关|洞察》研究小组认为,在科技竞争特别是在人工智能方面,欧盟积极与全球主要国家及其监管机构合作,并不断出台相关监管法案。目前,欧盟《人工智能法案》的最终文本正在商讨之中,该法案作为欧盟重要数据战略的一部分,将使中国企业开拓欧洲市场面临复杂的局面。
针对中国企业走出去面临的地缘政治、跨境监管、国际声誉等诸多挑战,走出去智库(CGGT)推出实务专栏【跨境监管与舆情风险】,帮助企业合理布局海外业务、提升跨文化沟通能力,以降低地缘政治和海外传播等风险。
欧盟在人工智能监管方面将采取哪些措施?今天,我们刊发走出去智库(CGGT)战略研究部的文章,供关注人工智能跨境合规管理的读者参阅。
要 点
CGGT,CHINA GOING GLOBAL THINKTANK
1、在对AI系统的分类上,欧盟委员会采用了基于风险的方法(risk-based approach)围绕四类人工智能系统构建,分别是:不可接受的风险、高风险、有限风险以及最低风险。其中前三类将受到法案的监管。
2、过往法案提出为创新人工智能系统的开发、测试和验证建立一个受控环境的沙盒机制。最新文本则提出,这一机制应同样被允许用于在现实世界条件下测试创新人工智能。
3、虽然目前欧盟《人工智能法案》尚未施行,且其余国家的相关规定也仍未完全成型,但企业应当尽早关注和理解相关监管机构包括人工智能,以及数据、科技相关更广泛领域的监管规定和要求。
正 文
CGGT,CHINA GOING GLOBAL THINKTANK
文/走出去智库(CGGT)战略研究部
一、 前言
2021年4月,欧盟委员会(European Commission)提出了《人工智能法案》提案(the proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act))(就提议《人工智能法案》,以下简称“法案”)。
这一法案的提出,被视为欧盟在人工智能以及更广泛的欧盟数字战略领域的里程碑事件。与后续颁布的《数字服务法案》(Digital Service Act)、《数字市场法案》(Digital Market Act)以及《数据治理法案》(Digital Governance Act)等核心法规一样,均是欧盟重要数据战略的一部分,也是欧盟在人工智能甚至是科技领域设定全球标准的决心和目标的体现。欧盟委员会在其数字战略目标中明确指出“欧洲现在必须加强其数字主权并制定标准,而不是遵循其他国家的标准,特别是重点关注数据、技术和基础设施领域。”
该法案一经通过,将成为欧盟第一部监管人工智能系统的横向立法,也是全球第一个人工智能法律监管框架。如同《欧洲通用数据保护条例》(GDPR),基于“布鲁塞尔效应”,这一法案预计也将对全球范围的人工智能监管产生重要影响。
本文将就近期法案立法进展以及欧盟人工智能监管层面其余相关进展做出简要分析。
二、《人工智能法案》的立法进展
1 、《人工智能法案》核心特点
依据2021年4月的最初提案,法案的核心内容包括[1]:
(1) 人工智能系统风险:四类
在对人工智能系统(AI System)的分类上,欧盟委员会采用了基于风险的方法(risk-based approach)围绕四类人工智能系统构建,分别是:不可接受的风险(unacceptable risk)、高风险(high risk)、有限风险(limited risk)以及最低风险(minimal risk)。其中前三类将受到法案的监管。第四种被称为“最小风险”(包括例如具备AI功能的视频游戏或垃圾邮件过滤器等),根据欧盟委员会的说法,这一类别实际上涵盖了绝大多数人工智能系统。
法案监管的核心是第二类风险,即高风险。针对高风险等级的人工智能系统,法案提出的特别要求包括:
●建立和维持风险管理系统(第9条)
●数据和数据治理(第10条)
(包括对具有数据和数据集的模型进行培训,例如,确保数据集的质量和解决可能的偏见)
●文件要求和记录保存(第11、12条)
(包括要建立、维护和更新的技术文档、日志记录功能和可追溯性)
●透明度和向用户提供信息(第13条)
(包括要求高风险人工智能系统必须附有使用说明,说明应包含“简洁、完整、正确和清晰的相关、可访问和可理解的信息”。 信息必须包括人工智能系统的功能和性能限制、预先判定的变化、预期寿命以及必要的维护和保护措施)
●人为监管(第14条)
(包括要求高风险人工智能系统必须在有效的人为监管下进行设计和开发)
●准确性、稳健性和网络安全(第15条)
(包括要求系统能够应对错误、故障或不一致性,以及应对未经授权的第三方利用系统漏洞试图改变使用或性能的风险)。
(2) 域外效力
这一法案具有域外效力。具体而言,依据法案第2条规定,法案适用于:
●在欧盟市场上投放人工智能系统或将其应用于服务的供应商,无论供应商在欧盟或第三方国家设立;
●位于欧盟的人工智能系统的用户;以及
●非欧盟的人工智能系统的供应商和用户,只要人工智能系统产生的输出在欧盟使用。
(3) 全价值链覆盖
尽管法案监管的重点是人工智能系统的供应商和用户,但整个人工智能价值链中从供应商、制造商和授权代表到进口商和分销商,再到用户和相关第三方都有相应的合规的义务。
(4) 罚款
法案针对不同情形设置了类似于GDPR和反垄断法的罚款机制。具体而言,依据法案第71条规定:对于公司主体最严重的不合规行为(第5条和第10条),如禁止的人工智能实践以及任何不符合高风险人工智能系统数据和数据治理要求的行为,行政罚款可能高达3,000万欧元或占企业上一财政年度全球年营业额的6%(孰高)。对于不符合任何其他要求或义务的行为,将被处以高达2,000万欧元或企业上一财政年度全球营业额4%(孰高)的行政罚款。此外,向相关监管机构提供错误、不完整或具有误导性的信息,最高可被处以1,000万欧元或企业上一财政年度全球营业额总额2%的行政罚款(孰高)。
2、《人工智能法案》共同立场
1、基本背景
自2021年4月欧盟委员会提出最初法案之后,欧盟议会(European Parliament)和欧盟理事会(European Council)就法案进行了多轮修订及讨论。继欧盟理事会轮值主席国捷克于2022年10月19日分发了法案的第四版折衷文本后,2022年12月6日,欧盟理事会通过了关于法案的共同立场(Common position)。
2、核心变化
相较于原始提案及过往修订版本,这一共同立场文本的主要变化如下[2]:
■人工智能系统的定义
自法案提出以来,就哪些系统属于法案所定义的“人工智能系统”一直存在争议。为了确保这一定义提供足够明确的标准,将人工智能系统与更简单的软件系统区分开来,此次文本将定义缩小到“通过机器学习方法、逻辑和基于知识的方法开发的系统。”后续,委员会可能会就其进一步做出限定,以免涵盖所有类型的“传统”软件。
■禁止类人工智能系统
此次文本将禁止使用人工智能进行社会评分的主体限制扩大到私人主体(private actors)。此外,关于禁止使用人工智能技术部署潜意识以利用特定群体弱势地位的规定也补充涵盖了因社会或经济状况而易处于弱势地位的群体。关于禁止执法机构在公共场所使用“实时”远程生物识别系统的问题,此次文本明确,仅在因执法目的严格需要的情形下执法机构才可被例外地允许使用这种系统。
■对高风险类人工智能系统的要求
文本对高风险人工智能系统的许多监管要求进行了明确和调整,为了使其在技术上更可行,利益相关者遵守的负担更小。例如在数据质量方面,在中小企业用以证明其高风险人工智能系统符合监管要求所需提供的技术文件方面。
由于人工智能系统是通过复杂的价值链开发和分发的,文本还额外澄清了这些价值链中各个参与者的责任和角色分配,特别是人工智能系统的供应商和用户。此外,文本还澄清了法案规定的责任与其他现有立法规定的责任之间的关系,如相关的欧盟数据保护或部门立法。
■通用人工智能系统
通用人工智能系统(General purpose AI systems)可以用于多种不同目的,并可集成到高风险的人工智能系统或环境中。此次文本规定,在这种情况下,对高风险人工智能系统的某些要求也适用于通用人工智能系统。
然而,这些要求暂不会被直接适用。后续将有具体的实施法案,在作出咨询和详细影响评估,并考虑到这些系统的具体特征和相关价值链、技术可行性以及市场和技术发展的基础上,就如何将这些要求应用于通用人工智能系统作出规定。
■与执法当局有关的范围和规定
文本明确提到,将国家安全、国防和军事目的排除在法案的范围之外。同样,确认了法案不应适用于仅基于研发目的的人工智能系统及其输出,也不适用于将人工智能用于非专业目的的人,但基于透明度义务要求的情形除外。同时,考虑到执法机构的特殊性,对有关为执法目的使用人工智能系统的规定也作出了一定调整。
■简化合规框架
为了简化法案的合规框架,此次文本对合规评估程序的规定进行了明确、简化。与市场监督有关的规定也得到了简化,使其更加有效和易于实施。在罚则方面,文本则特别规定了适用于中小企业和初创企业的行政罚款上限。
■监管沙盒
过往法案提出为创新人工智能系统的开发、测试和验证建立一个受控环境的沙盒机制(Regulatory sandboxes)。最新文本则提出,这一机制应同样被允许用于在现实世界条件下测试创新人工智能。行业和监管机构都认为这对创新至关重要,特别是针对中小企业和初创企业这些人工智能领域的主要创新者而言。以确保开发者承担相应的义务和确定性,降低成本、提高利益相关者的参与度。
■监督和协调
法案预计将由欧盟成员国监督机构具体执行,而其总体监督将由人工智能委员会(AI Board)负责。其主要任务是确保法案在欧盟成员国之间的一致应用和执行。此次文本对委员会相关条款进行了实质性修改,以确保其拥有更大的自主权,并强化其在法案整体治理架构中的作用。[3]
3、最新立法挑战
按照原始计划,欧盟议会预计在2023年3月就上述共同立场拟定法案版本进行投票以达成立场。预计4月由欧盟理事会、欧盟议会以及欧盟委员会就立法的最终文本进行商讨,解决一些关键争议。在经三方商讨产生一致文本后,文本将提交欧盟议会和理事会进行最终批准。按此计划,预计将在2023年内确定法案的最终文本。
但据报道,2023年2月24日,欧洲议会联合报告员Brando Benifei和Dragoș Tudorache 提出了一份妥协修正案(compromise amendment),其包含了欧盟议会议员经过“马拉松式”谈判后提出的反馈意见。虽然议员们没有达成全面的政治合意,但其提供的反馈涉及范围广,几乎涵盖了修正案的所有方面。例如,针对监管沙盒机制,反馈中增加了新的措辞,要求建立沙盒机制的监管机构指导和监督高风险人工智能系统的开发人员,以便在他们退出沙盒机制时可以被推定为遵守了法案的要求;又如,修正案明确开源人工智能模型不属于法案监管范围,除非其作为高风险系统、被法案禁止实践或产生深度造假系统的一部分,被投放市场或投入服务。[4]
随着近期ChatGPT等生成式AI技术的快速发展,商议中的法案也将相关问题纳入考虑。2023年3月14日,欧洲议会联合报告员Dragoș Tudorache和Brando Benifei提出了一份关于通用目的人工智能草案,提议为这类人工智能系统的提供商设定相应义务,并为相关参与主体设定责任。此外,上述报告员提议,ChatGPT等通用目的人工智能系统的整个生命周期都必须接受外部审计,以测试其性能、可预测性、可解释性、可纠正性、安全性和网络安全性是否符合法案的最严格要求。[5]
由此看来,无论是因立法者现阶段就法案核心内容仍存的诸多争议,还是ChatGPT等生成式AI技术飞速发展带来的监管难题,都对法案立法进程的推进提出了挑战,法案的最终出台日期变得难以精准预计。
三、《人工智能责任指令提案》:人工智能民事责任规则
1、《人工智能责任指令提案》基本背景
为建立值得信赖的人工智能,在欧盟的人工智能政策中,欧盟委员会提出了三项紧密关联的法律举措,分别是[6] :
●提出人工智能欧洲法律框架,为解决人工智能系统特有的基本权利和安全风险;
●提出民事责任框架,为使责任规则适应数字时代和人工智能;
●修订部门安全立法,如修订《机械条例》(Machinery Regulation)和《通用产品安全指令》(General Product Safety Directive)。
除了与《人工智能法案》相关的第一项举措外,针对第二项法律举措,2022年9月28日,欧盟委员会发布了《人工智能责任指令提案》(the Proposal for an Artificial Intelligence Liability Directive ,AILD)。
这一提案提及,在2020年的一项针对使用人工智能技术的欧洲企业的调查中,欧洲企业视责任问题为其使用人工智能技术的前三大障碍之一。对于计划但尚未采用人工智能技术的欧洲公司来说,43%的公司将责任问题则被视为最被关注的外部障碍。
就具体规制而言,欧盟委员会认为,欧盟成员国层面现有的责任法规,不适合规制因人工智能产品和服务造成损害相关责任索赔。根据这些规则,受害者需要证明造成损害的人的不当行为或不作为。基于人工智能的特征(包括复杂性、自主性和不透明性),可能会使受害者因证明困难而难以确定责任人以及证明索赔所需满足的条件。特别是与不涉及人工智能的案件相比,受害者在索赔时可能会产生非常高的前期费用,并面临更长时间的法律诉讼程序,以至于受害者可能实际上不能够提起索赔。[7]
指令的目的是通过就涉及人工智能系统造成损害相关非合同民事责任的特定方面制定统一规则,在统一国家层面的人工智能民事责任规则,提高法律确定性和促进人工智能创新,以改善欧盟内部市场的运作。
2、《人工智能责任指令提案》核心内容
与这一提案同日通过的另一项提案为《产品责任指令》(the Revised Product Liability Directive)的提案,旨在促使针对当前欧盟制造商缺陷产品相关责任的监管框架更加现代化。它将适用于在欧盟销售的所有产品。该提案旨在:
●根据欧盟致力于实现可持续性和减少废物的目标,通过明确经济运营主体在实质性修改或升级产品时何时应承担的责任,使责任规则适应循环经济商业模式。
●通过赋予就因人工智能系统、数字服务或网络安全漏洞等造成的损害的受害方获得赔偿的权利,使责任规则更适应数字时代产品的现实。
●在欧盟和非欧盟制造商之间创造一个公平的竞争环境,确保总部位于欧盟的企业始终对欧盟以外制造的产品造成的损害负责。
●通过要求制造商在法庭上披露必要信息,以及在更复杂的案件中减轻受害者的举证责任,如涉及药品、智能产品或人工智能产品的案件,为索赔提供便利。
而《人工智能责任指令提案》在上述拟议指令的基础上,引入了专门针对人工智能的两项额外措施作为上述规则的补充。旨在使责任规则适应数字时代和人工智能,同时确保两者之间的一致性。具体而言,两项附加额外措施分别是:
●通过“因果关系推定”减轻受害者的举证责任。
若受害方能够证明人工智能系统供应商不遵守所造成损害相关的特定义务(例如,欧盟或成员国法律规定的注意义务),则法院可以确定人工智能系统供应商不遵守特定义务与造成受害方损害之间的因果关系。人工智能系统供应商可以证明损害是由其他原因导致来反驳。
●授权法院命令高风险人工智能系统供应商(根据拟议《人工智能法案》定义)披露相关信息。
前提是同时尊重各方合法利益的保障措施,如商业机密或其他敏感信息的保护。[8]
四、国际监管合作
在人工智能相关国际监管层面,欧盟近半年来积极地与美国、印度及新加坡的监管机构合作。
1、美国:人工智能合作协议
2023年1月27日,欧盟与美国签署了一份人工智能合作协议,以期联合欧美地区专家在人工智能、计算和相关的隐私增强技术进行合作研究。协议确定了五个双方重点关注领域:极端天气和气候预测;应急响应管理;健康和医学改进;电网优化;和农业优化。
这一合作建立在此前美国和欧盟贸易和技术委员会(the U.S.-EU Trade and Technology Council )加强跨大西洋关系、推进数字技术方面(包括人工智能风险管理在内)合作工作,以及建立在2022年欧盟、美国以及包括全部欧盟成员国的其余合作伙伴共同签署的《互联网未来宣言》(the Declaration for the Future of the Internet)中表达的原则和利用新兴数字技术应对全球挑战的共同利益和价值观的基础上。
欧盟内部市场委员Thierry Breton表示:基于共同的价值观和利益,欧盟和美国的研究人员将携手开发人工智能的社会应用,并将与其他国际合作伙伴合作,产生真正的全球影响。
需提及的是,基于这一协议,欧美在数据流通上有所保留,不以数据共享为前提。
2、印度:新设贸易和技术理事会
2022年4月25日,欧盟委员会主席乌尔苏拉•冯德莱恩和印度总理纳伦德拉•莫迪于在新德里宣布双方设立贸易和技术理事会( the EU-India Trade and Technology Council ,TTC)。2023年2月6日,为强化双方在贸易与科技领域的战略伙伴关系,欧盟与印度在2022年4月设立的理事会基础上,成立了一个新的理事会,以深化双方在贸易和技术方面的战略合作。[9]
双方一致认为,地缘政治环境的迅速变化凸显了联合深入战略接触的必要性。理事会将提供政治指导和必要的结构,以实施政治决策,协调技术工作,并向政治层面提供信息,以确保政治决策在对欧洲和印度经济可持续发展至关重要的领域实施和后续关注。
理事会下设三个工作组:战略科技、数字治理和数字连接性;绿色和清洁能源技术;贸易、投资和弹性价值链。其中,战略科技、数字治理和数字连接性小组明确双方将在包括人工智能,以及数字连接性、5G/6G、高性能和量子计算、半导体、云系统、网络安全、数字技能和数字平台等共同利益领域开展合作。
继美国之后,印度成为第二个与欧盟共同设立贸易和技术理事会的国家。作为欧盟印太合作战略(the EU Strategy for Cooperation in the Indo-Pacific)的一部分,欧盟认为它将对现有亚洲伙伴启动的数字伙伴关系(the Digital Partnerships)起到补充作用。
3、新加坡:数字伙伴关系
2023年2月1日,欧盟与新加坡正式签署了一项数字伙伴关系(Digital Partnership),以加强欧盟和新加坡在数字技术领域的合作。这一关系建立于双方于2022年12月发布的共同宣言基础之上。
双方同意在半导体、可信数据流和数据创新、数字信任、标准、数字贸易便利化、工人数字技能以及企业和公共服务数字化转型等关键领域开展合作。就人工智能领域,双方将加强人工智能尖端技术的研究合作,以及促进人工智能监管方法方面的合作。此外,双方已就2023年优先实施事项达成一致,包括:探索在电子识别、人工智能治理领域的的共同方法,并致力于促进数字贸易和中小企业数字化转型的项目合作。
欧盟-新加坡数字伙伴关系是继日本、韩国之后,欧盟与亚洲主要合作伙伴签署的第三个伙伴关系。欧盟认为,双方数字贸易原则的签署是双方数字伙伴关系的第一个具体成果,也是实施欧盟印太战略的关键一步。
五、给中国企业的四项建议
依据埃森哲一项覆盖全球范围17个地域、20个行业中870位高管受访者的调查,接近97%的企业高管认为欧盟人工智能监管规定将对其产生一定程度影响,95%的企业高管认为至少会影响企业的特定业务。同时,多数企业将人工智能合规看做竞争优势来源,而不是经营负累。他们认为,提供高质量、值得信赖的AI系统并做好监管准备的能力将在短期内为先行者带来显著优势,使他们能够吸引新客户、留住现有客户,并建立投资者信心。更重要的是,一个组织展示其道德层面人工智能实践的能力可能会吸引人才和潜在客户。具体而言,43%的受访者认为合规将提高企业人工智能的工业化和规模化能力;36%的受访者相信合规将为企业获得竞争优势和推进差异化创造机会;41%的受访者相信合规将有助于企业吸引和留住人才。[10]
走出去智库(CGGT)特约青年法律专家王雪稚认为,中国企业,特别是有全球布局战略的人工智能价值链相关企业,无论在地缘政治抑或是在应对监管方面,都面临着复杂的局面。因此,企业更应当尽早行动起来,通过以下四个层次的工作主动应对监管。
1、紧密关注全球立法动态,积极制定企业全球合规体系。
虽然目前欧盟《人工智能法案》尚未施行,但法案极有可能因成为全球人工智能法律监管的标准而被各国监管机构所参考。企业尽早理解法案的立意、跟进立法进展以及了解具体规定,应能为企业在更宽泛法域的合规提供帮助、占住先机。
同时,企业还应更全面地关注和理解相关地域监管机构包括人工智能,以及数据、科技相关更广泛领域的监管规定和要求。例如,掌握高风险等级人工智能系统的企业,即使已于《人工智能法案》层面合规,仍需考虑遵循GDPR的规定和特别要求。
此外,在欧盟委员会于2021年4月提出的人工智能“一揽子计划”(AI package)中[11],《人工智能法案》、上述提及的《人工智能责任指令》均仅是计划的一部分。仅就法规层面而言,包括人工智能法律框架后续将如何影响现有特定领域(如知识产权)法律框架和具体规定、如何调整,都同企业合规紧密相关。
在制定全球合规体系层面,建议重视加强全员合规风险和传播风险管理培训,特别是管理层、业务人员、合规管理和品牌管理人员,提升全员合规意识,做全流程风险和传播管理。
2、加强人工智能全价值链主体之间深入合作。
依据法案立法进程中的文本,可以看到,法案的监管要求覆盖包括供应商、进口商、用户以及第三方等在内的人工智能全价值链的多个主体。法案具体规定中不乏对不同主体之间协同合规提出要求。而缺乏充分合作的合规,可能触发多个主体的责任。例如,进口商应确保供应商进行了适当的一致性评估,并制定了适当的技术文件;当用户有理由认为其按照说明使用人工智能系统可能导致其出现某些风险,或当用户发现严重事件或故障时,有义务通知供应商或分销商。
3、积极储备人工智能技术、合规及声誉管理人才。
近期接连发布的ChatGPT-4等生成式AI在全球范围内引发不小震动,可以预料的是,人工智能技术的快速发展、更新迭代,已是必然。其可能将以更加根本性的方式改变现有各行各业的态势和局面。因此,尽早着手储备懂业务、懂技术的人才,有能力充分应对随着技术发展不断更新的监管规则和要求的合规人才以及懂得传播战略、战术的声誉管理人才,对企业而言十分必要。
4、尽早将舆情风险纳入考量。
从立法趋势看,人工智能立法正在全球范围快速发展。企业同样应重视推行跨区域及全球的人工智能合规配套策略传播,协调部署传播资源,积极宣传在人工智能合规方面做出的努力和取得成果,并加强与当地有关机构和行业联盟的合作,特别是在如欧盟、美国等格外重视人工智能合规的地域。宣传时,借助客观数据,提升大众对品牌的信任,并树立良好合规形象。同时,做好前期预警以及应对潜在纠纷的声誉管理和传播预案。
同时,由于人工智能技术发展迅速,其在监管层面和大众层面备受关注。若有来自监管部门、媒体等方面的质疑时,建议企业第一时间给予回应并提出可行的解决办法,不淡化问题、避重就轻。舆情风险事件中,品牌传播部、法律合规部、投资者关系部等相关部门应通力合作,对利益相关方作出及时、准确的传播沟通。
此外,基于《人工智能法案》的全价值链覆盖特性,企业还应积极争取合作伙伴的配合与支持。与价值链中同属监管对象的合作伙伴协同合规之余,传播部门需配合公司合规战略,适当向现有、潜在合作伙伴开展公关沟通,释放安全合作信号。一方面,是为了更有力应对监管风险,另一方面也可挖掘潜在合作机会。
注释:
1.https://www.cliffordchance.com/insights/resources/blogs/talking-tech/en/articles/2021/05/the-future-of-ai-regulation-in-europe-and-its-global-impact.html
2.https://www.consilium.europa.eu/en/press/press-releases/2022/12/06/artificial-intelligence-act-council-calls-for-promoting-safe-ai-that-respects-fundamental-rights/#:~:text=The%20Council%20has%20adopted%20its,fundamental%20rights%20and%20Union%20values
3.https://www.sidley.com/en/insights/newsupdates/2022/12/proposal-for-eu-artificial-intelligence-act-passes-next-level
4.https://www.euractiv.com/section/artificial-intelligence/news/ai-act-meps-extend-ban-on-social-scoring-reduce-ai-office-role/
5.https://www.euractiv.com/section/artificial-intelligence/news/leading-eu-lawmakers-propose-obligations-for-general-purpose-ai/
6.https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence
7.https://commission.europa.eu/system/files/2022-09/1_1_197605_prop_dir_ai_en.pdf
8.https://www.jonesday.com/en/insights/2022/10/eu-proposes-new-liability-rules-on-products-and-ai
9. https://ec.europa.eu/commission/presscorner/detail/en/IP_23_596
10.https://www.accenture.com/us-en/insights/artificial-intelligence/ai-compliance-competitive-advantage
11.https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence