当前位置:首页|资讯|人工智能

人工智能立法的总则与主线

作者:北京日报发布时间:2024-06-03

张凌寒

人工智能时代已经到来,中国的《人工智能法》的出台还有多远?从2023年初OpenAI的ChatGPT惊艳问世,到2024年初Sora再一次引起全球关注,技术发展的脚步日益加快,人工智能正加速改变着产业、社会和世界。人工智能已经成为当前国际技术竞争与规则竞争的关键领域。人工智能立法是重点领域、新兴领域、涉外领域的综合立法,承载着“统筹推进国内法治和涉外法治”的使命。《人工智能法》的制度设计既应注重“治当下”,还应兼顾“谋长远”,具体制度的设计,需平衡发展和安全,对发展需求和安全隐患均予以考虑和回应。既应解决人民群众、国际社会迫切关心的问题,也从宏观上把握规制的尺度,特别是技术带来的生产激励、公平分配等问题。

第一,确立“立总则,留接口”的总体框架。《人工智能法》如何容纳和化解高度不确定性的诸多风险?这一问题可通过《人工智能法》的框架体例来解决:以“总则式”为框架体例,以“廓主线”为主要内容,以“留接口”解决容量问题。首先,《人工智能法》应确立“总则式”的框架体例,定位为人工智能治理的提纲挈领制度。因为《人工智能法》的重要性,现阶段的《人工智能法》的立法应参考《民法典》的立法经验,采用“总则式”的立法体例。“总则式”体例的《人工智能法》应确立人工智能立法的立法目的、基本原则等,表达我国人工智能治理的基本理念与基本立场。其次,《人工智能法》应以“廓主线”为主要内容,主线是指人工智能治理的基本框架脉络。《人工智能法》的基本框架脉络可包括一般原则、促进发展、权益保护、安全义务、特殊应用场景、监督管理、国际合作、法律责任等若干板块内容。最后,《人工智能法》要“留接口”解决容量问题。一是处理领域立法与通用立法需要“留接口”。关于教育、医疗、金融等领域的诸多具体规则,只能交给专门领域立法解决,《人工智能法》只能在有限条款中对特殊问题予以强化,此谓留足“领域接口”。二是处理现有制度与未来发展需要“留接口”。《人工智能法》立法中,可预留授权的制度接口,将技术、要素与产品应用的规制部门确定,将位阶较低的制度授权有关部门细化,在满足一定的产业发展条件后,立法可改变对法律义务与责任的设置,当下的制度设计可预留未来变化的制度“授权接口”。

第二,设定合理的分类分级认定规则。依据风险进行分类分级管理是技术治理规则设定中普遍采用的原则,在欧盟的系列立法推动下,人工智能依据风险分级管控已经成为各国监管普遍采取的手段。2023年欧盟《人工智能法案》(AI ACT)将人工智能风险等级划为四类,并扩大了人工智能高风险领域的分类范围,将对人们健康、安全、基本权利或环境的危害考虑在内;对高风险人工智能系统采取多项监管措施,并且新增规定了相关义务,体现了折中草案对于人工智能监管趋势趋严。但欧盟对风险的认定标准和监管成本过高,与我国立法的标准体系难以完全兼容。风险规制既需反映当下迫切的治理需求,也需要留足应对未来发展与不确定性的空间。我国也确立了算法、场景、主体、数据多个领域分级分类监管制度,但人工智能的分级分类标准需做出针对性的制度安排。《人工智能法》不宜在现阶段技术产业发展走向尚不十分明朗的情况下划定不同级别,而应划定“红线底线”以满足当下监管需求,并为不确定性的发展留足空间。欧盟对风险的认定标准包括处理应用场景、影响权利的类型等,这与我国国内立法的话语体系难以兼容。我国可考虑建立关键人工智能特殊监管制度,在人工智能一般监管要求基础上,实行重点监管,并可以与我国已有的关键信息基础设施保护制度实现对接。关键人工智能产品与服务包括:涉及公共通信和信息服务、能源、交通、水利、金融、公共服务、电子政务、国防科技工业等重要行业和领域的;对公民的生命、自由、人格尊严等重大人身权益有重要影响的;在算力、参数、用户规模等方面达到一定级别的通用人工智能系统。立法既应与已有的关键信息基础设施制度对接,也应从重大权益影响角度进行制度覆盖,并对未来可能造成系统性生存性风险的人工智能治理予以回应。

第三,完善人工智能动态监测、预警、响应机制。人类与人工智能未来将长期共存,技术与风险的不确定性将是技术治理的常态。应对这种“常态”,应在《人工智能法》中建立人工智能风险的动态监测、预警、响应机制。如,国家设立人工智能专家委员会,定期通报人工智能技术的发展、部署和应用,并且动态监测风险、共享风险评估、实施安全事件报告、建立应急响应机制。这一系列风险监测、预警、共享、报告和响应的体制机制将成为能够长远监管人工智能风险的制度。再如,人工智能产品和服务的研发者、提供者应当建立人工智能安全事件决策和处置流程,对于引起社会舆论、产生广泛社会影响的人工智能安全事件,应当及时向主管部门报告。这一制度将有助于公众更好地了解人工智能,并推动国际社会就人工智能进化的速度和影响达成共识,逐步建立标准,以更加科学地衡量人工智能对社会生活各个领域产生的影响。

第四,对当下和长远发展的人工智能治理共性问题做出制度安排。一是从当下来看,人工智能与知识产权的紧张关系成为世界各国立法面临的难题。在立法层面,欧盟、美国、日本等加快了推进人工智能版权立法的进程。在司法层面,国内外已有多起有关人工智能生成内容的可版权性、训练数据版权侵权等诉讼。在输入端,训练数据的获取与使用始终面临合法性问题,国内外有关训练数据版权侵权的案件已经呈现出井喷局面,各方对于训练数据能否构成合理使用持不同立场。在输出端,关于人工智能生成内容的可版权性问题引发了学界广泛的讨论,“国内AI生成图片著作权侵权第一案”的裁判更是引发了各界关注。基于我国当下“世界领先的追赶者”角色,立法应尽快协调人工智能产业发展与知识产权保护制度,为技术产业高质量发展创造条件。二是从长远来看,通用人工智能初现端倪,治理具有比人类计算能力强大的技术系统成为各国必须通力合作的议题。《人工智能法》宜预留通用人工智能的规制条款,对于未来可能出现的非限定任务的、多领域通用的强大人工智能系统设置更高的安全规范。

第五,根据现行技术产业发展阶段探索新型监管制度。如各方广泛关注的沙盒监管制度,是允许企业在真实的市场环境中测试产品、服务或商业模式,同时又能将新技术潜藏的风险控制在一定范围。美国已经在人工智能金融、自动驾驶等领域相继开展沙盒监管测试,并鼓励参与企业在沙盒内开展红队对抗、自律管理等活动。欧盟《人工智能法案》第五编专门规定了沙盒制度,细致规定了沙盒制度的运行和相应的监管措施,同时还特别强调中小企业使用沙盒的优先准入和费用减免制度,被认为是欧盟保护本土企业、增强产业竞争力的重要制度。为支持人工智能创新发展,相关部门可以探索人工智能产品与服务监管的试点机制,设定监管试点技术的准入条件、试点范围与期限、试点的运行规则等,明确试点目的、定期与试点企业展开技术交流和治理经验共享,为人工智能研发提供必要测试环境的同时提高监管机关自身的监管能力。对初创企业、小微企业等难以获得专用设施、缺乏财力人力的市场主体,可以适当减轻或豁免其进入试点的条件。

笔者确信,中国应当有一部《人工智能法》来彰显立场,为人工智能技术产业发展保驾护航。也只有在法律这一位阶层面制定人工智能法律制度,才能够统筹协调并确立国家层面人工智能治理制度,真正实现立法先导,发挥法治在人工智能发展治理领域固根本、稳预期、利长远的基础性作用。

(作者为中国政法大学数据法治研究院教授、博士生导师)


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1