当前位置:首页|资讯|人工智能

AI观察|欧盟《人工智能法案》进入最后讨论阶段,欧洲议会拟扩大监管范围

作者:走出去智库CGGT发布时间:2023-08-01

原标题:AI观察|欧盟《人工智能法案》进入最后讨论阶段,欧洲议会拟扩大监管范围

走出去智库观察

目前,欧洲议会于6月通过《人工智能法案》授权草案后,该法案将进入欧盟启动监管前的最后阶段。欧洲议会、欧盟委员会和成员国将进行“三方”谈判,以确定法案的最终条款。

走出去智库(CGGT)观察到,欧盟《人工智能法案》于2021年被首次提出,将人工智能风险分为不可接受的风险、高风险、有限的风险和极小的风险四级,对应不同的监管要求。目前争论的一个主要领域是面部识别的使用,欧洲议会投票禁止使用实时面部识别,但仍存在是否应出于国家安全和其他执法目的而允许豁免的问题,这些规则的执行将取决于欧盟的27个成员国。

欧盟《人工智能法案》有哪些监管措施?今天,走出去智库(CGGT)刊发全球领先律所——泰乐信律师事务所(Taylor Wessing)的文章,供关注AI监管的读者参阅。

要 点

CGGT,CHINA GOING GLOBAL THINKTANK

1、欧盟理事会禁止私营部门使用人工智能进行社会评价,禁止人工智能系统利用特定人群以及那些因社会或经济状况而易受伤害的人群的弱点。

2、欧洲议会提议修订被禁的“风险程度不可接受的人工智能”的清单,以涵盖人工智能系统的侵入性和歧视性使用。

3、欧洲议会的修订拟议,扩大了高风险类别人工智能系统的范围,以覆盖对人体健康、安全、基本权利或环境的危害。

正 文

CGGT,CHINA GOING GLOBAL THINKTANK

文/Debbie Heywood

泰乐信伦敦办公室高级专业支持律师

主要内容

欧盟对人工智能的监管方法是自上而下地搭建立法体系。欧盟委员会于2021年4月提出了一项《人工智能法案》。该法案旨在通过搭建针对人工智能的开发者、部署者和用户的相关要求和义务的框架以及监管体系,来规范人工智能的开发和应用。搭建该框架将以人工智能的风险分类为基础,“高风险”类别的人工智能系统将受到最严格义务的约束,“不可接受应用”类别的人工智能系统被禁止使用。

随后围绕欧盟《人工智能法案》草案的讨论,将大都集中在其对风险的分类体系和定义上。

目前欧盟《人工智能法案》立法的进展

欧洲议会暂时达成共同立场,这是继2022年12月欧盟理事会达成通过该法案的立场后的又一表态。该法案将在获得欧洲议会、欧盟委员会和成员国三方通过后而最终定稿。

欧盟理事会的立场

欧盟理事会提议的修改内容包括:

·缩窄人工智能系统的定义,涵盖通过机器学习的方法和逻辑以及基于知识的方法开发的系统

·禁止私营部门使用人工智能进行社会评价,禁止人工智能系统利用特定人群以及那些因社会或经济状况而易受伤害的人群的弱点

·阐明执法部门何时可以使用实时生物识别系统

·阐明针对高风险人工智能系统的要求和供应链中的责任分配

·与人工智能通用目的有关的新规,以及将通用人工智能集成到另一高风险系统中的相关规定

·阐明人工智能系统可适用于国家安全、国防、军事以及仅用于研发目的或非专业目的的例外情况

·简化合规框架

·对初创企业和中小企业的违规行为施以更相称的处罚

·更强调信息的透明度,包括要求告知暴露在情绪识别系统下的人群

·支持创新的措施。

欧洲议会的立场

欧洲议会成员对理事会的提议提出了诸多可能具有重大意义的修订意见。

风险程度不可接受的人工智能

欧洲议会提议修订被禁的“风险程度不可接受的人工智能”的清单,以涵盖人工智能系统的侵入性和歧视性使用,例如:

·在公共空间使用的实时远程生物识别系统

·延后远程生物识别系统,执法机构为起诉严重犯罪之目的且经过司法授权后使用该系统除外

·使用敏感特征(如性别、种族、民族、公民身份、宗教、政治取向)进行生物识别分类的系统

·(基于画像、地点或过去犯罪行为的)的预测性警务系统

·在执法、边境管理时、工作场所和教育机构内使用的情绪识别系统

·随意地从社交媒体或闭路电视录像中抓取生物识别数据,以创建面部识别数据库(侵犯人权和隐私权)。

高风险人工智能

欧洲议会的修订拟议,扩大了高风险类别人工智能系统的范围,以覆盖对人体健康、安全、基本权利或环境的危害。高风险类别人工智能系统,将包括在政治竞选和(按照《数字服务法》(DSA)的规定,有超过4500万用户的)社交媒体推荐平台中用于影响选民选择的人工智能系统。

对高风险类别人工智能系统的相关义务加以规范,并新增了在使用系统前开展基本权利评估的要求。同时,欧洲议会在提案中还规定,表面上属于高风险类别但不构成重大风险的人工智能系统,可告知相关机关该等系统为低风险。该被告知的机关将有三个月的时间提出反对意见,在此期间相关人工智能系统可以启动。对人工智能系统进行错误分类的,将被处以罚款。

对基础和生成式人工智能模型的加强措施

基础人工智能模型的供应商,需要保证对基本权利、健康和安全、环境、民主和法治的保护,需要遵守风险评估和减轻伤害的要求,受到数据治理规定的约束,有义务遵守有关设计、信息和环境的要求,并需在欧盟数据库中予以登记。

生成式人工智能模型的供应商,须遵守额外的信息透明度要求,包括披露由人工智能生成的内容。模型的设计必须防止生成非法内容,供应商需要发布用于训练目的的受版权保护的数据的摘要,还须接受独立第三方的评估。

其他权利

欧洲议会成员提议,公民有权对人工智能系统提出投诉,且对于对其影响重大的高风险类别的人工智能系统做出的决策,有权获得解释。

点击附注链接【1】了解更多关于欧洲议会的立场。

影响范围

在欧盟开发、部署或使用人工智能,将人工智能系统投放在欧盟市场或在欧盟投入使用,或者其系统的产出在欧盟被使用的任何人士,都将受到《人工智能法案》的影响,都要关注欧洲议会、欧盟委员会和成员国三方讨论的结果。

欧盟委员会希望欧盟《人工智能法案》能在2023年底前生效,生效之后将有两年的实施期。

了解更多信息

点击附注链接【2】了解欧盟《人工智能法案》的专门介绍。

如果您想深入了解欧盟《人工智能法案》的最初提案,请点击附注链接【3】。

有关世界各地人工智能和监管方法的更多信息,请点击附注链接【4】。

附注链接:

【1】https://www.taylorwessing.com/en/insights-and-events/insights/2023/05/draft-of-the-ai-act

【2】https://www.taylorwessing.com/en/insights-and-events/insights/artificial-intelligence-act

【3】https://www.taylorwessing.com/en/interface/2021/ai-act

【4】https://www.taylorwessing.com/en/insights-and-events?hot_topics=eba6ba28-e80b-49c7-8e94-2fae8490107d

来源:泰乐信律师事务所

免责声明:

本文仅代表原作者观点,不代表走出去智库立场。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1