当前位置:首页|资讯|人工智能

关于欧盟人工智能法案我们需要了解什么?

作者:SCA联盟发布时间:2023-03-08

原标题:关于欧盟人工智能法案我们需要了解什么?

在数据隐私和GDPR之后,欧盟希望通过欧盟人工智能法案在人工智能上留下自己的印记。以下是它是什么,它何时生效,以及 它 对整个世界的意义和Mozilla基金会的专家对此的评论。

自欧盟委员会公布可能是世界上最具影响力的法律框架之一——欧盟人工智能法案的草案以来,已经过去了将近一年的时间。根据Mozilla基金会的说法,该框架仍在进行中,现在是时候积极参与塑造其方向的努力了。

Mozilla 基金会的既定使命是努力确保互联网仍然是一个对每个人都开放和可访问的公共资源。自2019年以来,Mozilla一直密切关注欧盟AI法案。

Mozilla 基金会的执行董事 Mark Surman 和高级政策研究员 Maximilian Gahntz,讨论了 Mozilla 对 AI 的关注和立场、欧盟 AI 法案的关键事实及其在实践中如何运作,Mozilla 改进它的建议,以及每个人参与这一过程的方式。

欧盟人工智能法案正在制定中,即使您不在欧盟,这也是一件大事

2019年,Mozilla将AI确定为互联网健康的新挑战。其基本原理是,人工智能为我们做出关于我们的决定,但并不总是与我们一起。

人工智能做出的决定有可能帮助人类,但也可能伤害我们。人工智能可以放大历史偏见和歧视,将参与度置于用户福祉之上,并进一步巩固大型科技公司的力量并使个人边缘化。

Surman 指出:“在过去几年中,值得信赖的人工智能对我们来说一直是一件重要的事情,因为数据和机器学习以及我们今天所说的人工智能是互联网的核心技术和社会商业结构,涉及互联网如何与社会和我们所有人的生活相交。”

随着人工智能越来越多地渗透到我们的生活,Mozilla同意欧盟的观点,即管理人工智能的规范和规则的改变是必要的。

关于欧盟人工智能法案,首先要注意的是,它并不完全适用于欧盟的组织或公民。这种涟漪可能会以类似于GDPR的影响在世界各地感受到。

《欧盟人工智能法案》适用于位于欧盟境内的人工智能系统的用户和提供者,在欧盟以外建立的供应商,他们是在欧盟内将人工智能系统投放市场或调试的来源,以及当系统产生的结果在欧盟使用时,在欧盟以外建立的人工智能系统的提供者和用户也会受此影响。

这意味着开发和部署人工智能系统的组织将不得不遵守欧盟人工智能法案或完全退出欧盟。

关于欧盟人工智能法案的另一个关键点是,它仍然是一项正在进行的工作,需要一段时间才能生效。

自2021年4月欧盟人工智能法案的第一稿发布以来,参与这一过程的每个人都一直处于准备当中。欧盟议会必须决定哪些委员会以及这些委员会中的哪些人将就此开展工作,民间社会组织有机会阅读案文并发表其立场观点。

正如Gahntz所说,我们现在所处的点是令人兴奋的部分开始的地方。这是欧盟议会考虑从指定委员会和第三方收到的意见的时候。一旦欧洲议会巩固了他们对“可信赖的人工智能”一词的理解,他们将提交他们关于如何改变初始草案的想法。

欧盟成员国也将做同样的事情,然后议会,委员会和成员国之间将进行最后一轮谈判,届时欧盟人工智能法案将通过成为法律。这是一条漫长而曲折的道路,根据Gahntz的说法,我们至少要考虑一年的时间范围,加上通过成为法律到实际生效之间的过渡期。

鉴于GDPR,过渡期为两年。因此,关于欧盟人工智能法案生效,它可能在2025年之后。

定义和分类 AI 系统

在进入欧盟人工智能法案的细节之前,我们应该停下来问问它究竟适用于什么。没有广泛同意的人工智能定义,因此欧盟人工智能法案提供了一个附件,定义了属于其范围内的技术和方法。

欧盟委员会选择了一个广泛而中立的人工智能系统定义,将它们指定为软件,“该软件是用附件一中列出的一种或多种技术和方法开发的,并且对于一组给定的人类定义的目标,可以生成诸如内容,预测,建议或影响他们与之互动的环境的决定”。

欧盟人工智能法案附件中提到的技术包括机器学习方法以及基于逻辑和知识的方法。它们的范围很广,以至于对“提议规范贝叶斯定律的使用”提出了批评。虽然这是在商业和研究需求以及公民关注之间游走的一条细线,但这些说法似乎并没有抓住拟议立法理念的要点:所谓的基于风险的方法。

在欧盟人工智能法案中,人工智能系统根据其构成的感知风险分为4类:完全禁止不可接受的风险系统(尽管存在一些例外情况),高风险系统受可追溯性,透明度和稳健性规则的约束,低风险系统要求供应商透明,以及未设置要求的最低风险系统。

因此,这不是监管某些技术的问题,而是根据应用程序带来的风险来规范这些技术在某些应用程序中的应用。就技术而言,拟议的框架指出,为了跟上该领域的发展,可能需要加班加点进行调整。

被排除在欧盟人工智能法案范围之外的是专门为军事目的开发或使用的人工智能系统。在与欧盟或其一个或多个成员的国际执法和司法合作协议框架内使用人工智能系统的第三国和国际组织的公共当局也不受欧盟人工智能法案的约束。

操纵人类行为以剥夺用户自由意志的人工智能应用程序和允许欧盟成员国进行社会评分的系统被归类为构成不可接受的风险,并被彻底禁止。

高风险人工智能系统包括生物特征识别、关键基础设施(水、能源等)管理、用于教育机构分配或人力资源管理的人工智能系统,以及用于获取基本服务(银行信贷、公共服务、社会福利、司法等)、用于警察任务以及移民管理和边境管制的人工智能应用。

然而,生物鉴别身份的应用包括若干例外情况,例如在恐怖主义、贩运人口或儿童色情制品案件中寻找失踪儿童或嫌疑人的下落。欧盟人工智能法案规定,高风险人工智能系统应记录在欧盟委员会维护的数据库中。

有限风险系统主要包括各种机器人。对于这些,关键要求是透明度。例如,如果用户正在与聊天机器人交互,则必须告知他们这一事实,以便他们可以就是否继续做出明智的决定。

最后,根据委员会的说法,不会对公民权利构成风险的人工智能系统,如垃圾邮件过滤器或游戏,不受监管义务的约束。

欧盟人工智能法案是实现可信赖人工智能的一种方式

基于风险的方法试图将监管对开发和部署人工智能系统的人的影响降到最低。因此,查看特定于每个用例的风险也很重要。

我们的想法是将注意力集中在棘手的地方,那里会给人们的安全、权利和隐私带来风险等问题。这也是我们想要关注的部分,监管本身并不是目的。

我们希望通过我们的建议和围绕这一点的宣传工作来完成。法规中侧重于减轻或防止风险实现的部分在最终的欧盟人工智能法案中得到加强。

希望没有人受到伤害,AI能够成为所有人的净利益。

(本文出自SCA安全通信联盟,转载请注明出处。 )


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1