当前位置:首页|资讯|ChatGPT|人工智能|OpenAI

ChatGPT和生物识别监控等技术将受约束

作者:南方都市报发布时间:2023-12-20

原标题:ChatGPT和生物识别监控等技术将受约束

欧洲议会、欧盟成员国和欧盟委员会三方,终于在漫长谈判后,于布鲁塞尔当地时间12月8日晚,就《人工智能法案》达成协议。这一法案将成为全球首部人工智能领域的全面监管法规。欧盟内部市场委员蒂埃里·布雷东坦言,这份协议将有助于欧洲“在全球人工智能竞赛中领跑”。

闭门谈判

重点关注聊天机器人和生物识别技术  

已达成协议的《人工智能法案》草案规定,严格禁止“对人类安全造成不可接受风险的人工智能系统”,其中包括有目的地操纵技术、利用人性弱点或根据行为、社会地位和个人特征等进行评价的系统等。

相关规定还包括,人工智能公司要对其算法进行人为控制,提供技术文件,并为“高风险”应用建立风险管理系统。每个欧盟成员国都将设立一个监督机构,确保这些规则得到遵守。

此前,欧盟方面一直希望推动《人工智能法案》尽早出台。

2019年以来,欧盟一直布局人工智能监管领域,先后发布人工智能伦理准则并出台《人工智能白皮书》。

2021年4月,欧盟委员会提出《人工智能法案》提案的谈判授权草案。此后,欧洲议会和欧盟理事会就草案进行了多轮修订和讨论。

2023年6月,欧洲议会以499票赞成、28票反对和93票弃权,高票通过了《人工智能法案》谈判授权草案,推动了该法案进入立法程序的最后阶段,即举行欧洲议会、欧盟成员国和欧盟委员会的“三方谈判”,以确定法案的最终条款。

上周,三方为此展开了马拉松式的闭门谈判,其中一次谈判持续了22个小时,第二轮谈判于12月8日上午开始。

欧洲新闻台提到,早些时候上周四(7日)的谈判是就控制像美国人工智能公司OpenAI的大语言模型ChatGPT这样的聊天机器人的基础模型达成初步妥协,8日的谈判则重点关注在公共场所使用包括面部识别在内的实时生物识别技术。

据法新社消息,经过36个小时谈判,欧盟成员国及欧洲议会议员8日就全球首个监管包括ChatGPT在内的人工智能的全面法规达成初步协议。欧洲新闻台形容说,谈判过程非常激烈,这是世界上首次尝试以全面的、基于伦理的方式监管这项快速发展的技术。

欧盟内部市场委员蒂埃里·布雷东在社交媒体上发文表示:“欧盟成为第一个为人工智能使用设立明确规则的地区。《人工智能法案》不仅是一本规则手册,也将成为欧盟初创企业和研究人员引领全球人工智能竞赛的助推器。”

各方需求

数十家欧洲大型企业曾公开反对该法案  

北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括表示,欧盟各方最终就《人工智能法案》达成协议,是各方做出妥协的结果,这既有来自欧盟内部的迫切需求,也有来自外部环境的压力。

第一,欧盟各国都认同发展人工智能能使欧盟获得竞争优势,在未来全球治理中赢得话语权,并且各国也有产业和经济发展的实际需求。因此,欧盟内部对于人工智能立法是比较迫切的。

第二,包括中国、美国、英国在内的国际治理主体,都在快速地推进关于人工智能治理的规则建设。从外部环境来讲,也决定了欧盟需要尽快形成和推出自己的规则。

吴沈括进一步分析认为,欧盟的《人工智能法案》对欧盟乃至全球的人工智能发展格局和立法格局都会带来非常重大的影响。

《人工智能法案》的立法技巧具有全面性和综合性。未来法案颁布实施,将对人工智能的研发、人工智能产品和服务的设计与运行带来非常大的直接影响。

在合规层面,该法案会影响各类人工智能企业的市场格局、业务模式、运营方式乃至发展前景。从执法和实施的前景来看,对于人工智能企业是一个比较大的挑战,同时也是一个业务重构、业务设计的过程。

法案正式颁布实施后,各成员国将基于本国的公共政策基础,做出一定的变通适用。

耐人寻味的是,此前,包括空客和西门子在内的数十家欧洲大型企业曾采取集体行动,以“可能损害欧洲竞争力”“不能应对潜在挑战”等为由,公开反对欧盟通过《人工智能法案》。

合作监管

中欧或可在合法合规的前提下共享数据资源  

彭博社报道称,该协议标志着欧盟在人工智能监管方面迈出关键一步。在美国没有采取任何行动的情况下,这一法案或将为发达国家对生成式人工智能工具的监管定下基调。但有人警告说,即使达成了协议,也可能需要举行更多的会议来敲定法规的技术细节,该法案最早也要到2026年才能生效。

在达成协议之前,欧盟各成员国和欧洲议会议员已就应如何管控人工智能进行了多年的讨论。2021年,欧盟委员会就曾提议通过《人工智能法案》。在去年ChatGPT发布后,监管人工智能变得紧迫起来,包括中国、美国、英国在内的国家,都在快速地推进关于人工智能治理的规则建设。

今年7月,中国国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》,自8月15日起施行。

北京社科院副研究员王鹏在接受采访时表示,中欧在人工智能监管的合作空间是非常巨大的。中欧作为全球人工智能的领先力量,可以在多个方面展开合作:首先,双方可以分享各自在人工智能监管方面的经验和政策,相互借鉴;其次,双方可以共同制定人工智能技术和应用的标准,促进国际标准的互联互通,确保人工智能技术的安全应用;第三,双方可以在合法合规的前提下共享人工智能技术的数据资源,为人工智能的研发和产业化提供支持;此外,人工智能人才培养也是一个未来重要的合作方面。

关注  

对两大监管重点如何规定?

AI公司要为“高风险”应用建风险管理系统  

如何监管像ChatGPT一样的先进人工智能模型是此次谈判的争论点之一。彭博社看到的一份欧盟文件显示,所有通用型人工智能系统的开发者都必须满足基本的透明度要求,除非它们是免费的或者开源的,透明度要求包括:具有可接受的使用策略、更新训练大模型的最新信息、遵守欧盟版权法以及报告用于训练其模型的数据信息。

根据该文件,被视为有“系统性风险”的模型将受到额外的约束。欧盟将根据用于训练模型的计算能力来确定这种风险。专家表示,目前唯一能自动达到这一门槛的模型只有人工智能公司OpenAI的GPT-4。

此外,有关另一项颇具争议的生物识别监控技术,协议中规定,各国政府只能在公共场所使用实时生物识别监控,防止像恐怖袭击等可预见的威胁公共安全的事件,以及搜索犯罪嫌疑人等。文件还规定,禁止有目的地操纵技术,利用分类系统来推断用户种族、宗教信仰等个人信息。消费者有权提出投诉并获得相应解释,违规者将被罚款。事实上,关于生物识别监控技术,欧洲议会希望能够全面禁止。

美国《纽约时报》报道称,该法规的许多细节预计在未来两年内都难以敲定,这为人工智能的发展留足了时间。直到谈判的最后一分钟,立法者和欧盟各国仍在为“如何在促进创新与防范可能的伤害间取得平衡”这一问题辩论。

整合:董淑云

来源:新华社、央视新闻、环球网、成都商报 制图由腾讯混元大模型生成


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1