南方财经全媒体记者 冯恋阁 21世纪经济报道记者 郑雪 实习生胡暄悦 广州、北京报道
2017年,人工智能第一次写入政府工作报告。6年间,这一产业的发展突飞猛进,今年2月,工信部相关数据显示,我国人工智能核心产业规模达到5000亿,企业数量接近4000家。
产业高歌猛进的另一面,技术野蛮生长带来的种种问题也不可能忽视,2020年,全国人大常委会立法工作计划首次提及要重视人工智能法律问题。
三年后,国家层面的人工智能立法已然提上日程。近日,国务院发布了2023年度立法工作计划,其中号召,应实施科教兴国战略、推进文化自信自强,预备提请全国人大常委会审议人工智能法草案。
受访专家指出,与该领域现存的小切口、垂直领域法律规则不同,人工智能法将作为领域内的“基本法”,为人工智能治理打下框架性基础。在治理思路上,该法也将依循一直以来我国安全与发展并行的思路,以安全为底线护航人工智能产业发展。
人工智能法纳入立法计划:重点何解?
人工智能法一旦落地,将如何对产业进行监管?
“未来的人工智能法可能会促进和规制并行。”在华东政法大学教授、数据法律研究中心主任高富平看来,人工智能立法将表现出促进或规制两种倾向。规制主要在于防范风险、趋利避害;促进角度来看,应在解决数据开放利用等重点问题的基础上发展人工智能。
北京航空航天大学法学院副教授、北京科技创新中心研究基地副主任赵精武则指出,从法律位阶来看,人工智能法属于人工智能监管领域的“基本法”,现存的地方条例和征求意见稿均需根据人工智能法内容进行相应的调整,人工智能法未规定或规定由其他机构制定细则的事项,地方条例和征求意见稿可以根据具体情况保留原有内容。
值得注意的是,去年9月,深圳、上海先后通过了《深圳经济特区人工智能产业促进条例》、《上海市促进人工智能产业发展条例》两部人工智能产业专项立法,对人工智能的概念、产业边界进行了规定。这两部法案已于去年年底正式在两地施行。今年4月,《生成式人工智能服务管理办法(征求意见稿)》发布并向社会公开征求意见。
具体而言,哪些内容将会受到该法监管?
对外经济贸易大学数字经济与法律创新研究中心执行主任张欣指出,与之前人工智能领域小切口、垂直领域的立法不同,人工智能法作为基础性的上位型法律,将为整个人工智能领域的治理打下基础性框架。“其管理范围将涵盖人工智能全生命周期,包括数据、生态、应用治理、个人用户权利、主体责任等。”她表示。
在高富平看来,立足于人工智能产业,除了促进投资、加大产业扶持、完善基础设施,人工智能立法还需解决数据问题。“数据永远是人工智能训练开发应用的一个最基础的设施。而当前的数据开放程度并不够,数据利用规则也仍不明确。”他直言。
高富平介绍称,以人工智能产业的大型语言模型为例,其后续发展,一方面需要实现数据快速聚合,形成可用的大模型;另外一方面,数据聚合必须有一套相应的规则和机制,在保证安全的同时避免交易成本过高。
从立法计划走向正式的法律出台,人工智能法还会经历怎样的流程?
赵精武向21世纪经济报道记者介绍道,根据我国《立法法》等相关规定,在公布立法工作计划之后,法案还将经历起草调研、形成草案、形成条例等基本流程。
张欣则指出,根据以往立法规律,法律从立法计划到最后公布实施需要经历漫长的过程,如果涉及到二审、甚至三审,时间还会延长。“今年内出台,我觉得可能还是希望比较小。”她坦言。
中国方案:发展与治理兼顾,软法与硬法并行
21世纪经济报道记者梳理发现,近年来,我国人工智能治理呈现安全与发展兼顾、伦理与法律并行的特点。
在技术及产业的发展方面,早在2017年,“人工智能”就首次被写入全国政府工作报告。报告指出,要加快人工智能等技术研发和转化,做大做强产业集群。同年,国务院制定了《新一代人工智能发展规划》,科技部则成立了人工智能规划推进办公室、战略咨询委员会。
2017年之后,政府工作报告屡次提及人工智能,指出要深化研发应用、壮大相关产业。
今年2月,在国新办举行的第四场“权威部门话开局”系列主题新闻发布会上,科学技术部高新技术司司长陈家昌介绍,近年来,我国启动了人工智能重大科技项目,确定了以“基础软硬件”为主体,“基础理论”和“创新应用”为两翼的“一体两翼”研发布局;依托龙头企业,建立了人工智能开放创新平台,一方面带动中小企业发展,另一方面提升整个行业的技术进步速度。
2022年,政府工作报告已将人工智能列为核心技术之一。5月5日,第二十届中央财经委员会第一次会议则提出,要把握人工智能等新科技革命浪潮,促进产业发展。
在监管治理方面,我国近年来也一步一个脚印向前。
2017年,科技部成立人工智能治理专业委员会。2019年6月,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则》,提出了人工智能发展相关方需要遵循的八项原则。2021年,该委员会发布《新一代人工智能伦理规范》增强全社会的人工智能伦理意识与行为自觉,将伦理道德融入人工智能研发和应用的全生命周期。
“伦理规范先出来的原因在于人工智能技术迭代周期较快,短期内仓促立法客观上难以与人工智能技术发展保持同步,科技伦理规范虽然不具有强制性效力,但能够满足现阶段人工智能技术治理的部分需求。”赵精武介绍道。
具体到法律来看,除了前文提到深圳、上海两地颁布的产业促进法,去年年底以来,随着ChatGPT等产品发布,生成式人工智能技术的亮眼使其受到“特别关注”。今年4月,《生成式人工智能服务管理办法(征求意见稿)》发布并向社会公开征求意见。
产业加速“狂飙”,风险亦“暗流涌动”。未来的人工智能法应如何处理安全和发展的关系?
“优先发展还是优先安全,并不是一个二选一的问题。我们一直都是在安全底线之上再去谈发展。”张欣指出,人工智能的治理框架整体来看,需要保证监管与创新的双轮驱动。
赵精武也指出,强调人工智能技术应用安全不是限制技术发展,而是确保技术发展最终能够实现经济社会的良性发展,这也是目前以及未来监管机构一直秉持的治理思路。
AIGC浪涌,各国均加强监管
目光转向海外,欧盟5月通过了妥协版本的《人工智能法案》,同月的大洋彼岸,OpenAI首席执行官山姆·奥特曼也走进了美国会议山,呼吁监管AI。
作为数字立法大国,欧盟始终对人工智能监管保持关注。
2018年4月,欧盟发布政策文件《欧盟人工智能》,提出要逐步建立适当的伦理和法律框架。2020年,《人工智能白皮书—通往卓越和信任的欧洲路径》则指出,应构建基于风险的人工智能监管框架。
2021年4月21日,欧盟委员会正式提出了《人工智能法案》提案,世界范围内第一部针对人工智能进行规制的法律迈开制定的脚步。今年5月,妥协版《人工智能法案》(以下简称“《法案》”)在欧洲议会投票通过。
作为世界上第一部关于人工智能治理和监管的综合性全面立法,《法案》提出了诸多治理观点和思路。其中值得注意的是,与大众对欧盟“铁腕监管”印象不同,《法案》也为行业发展留出了空间。
《法案》对于中小企业、初创企业给予了一定程度的优待。比如《法案》提出,要建立人工智能监管沙盒用以小范围测试人工智能系统实际运行的效果。监管沙盒的重要目标就是要确保中小企业和初创企业能够轻松访问沙盒,积极参与开发和测试。
“支持人工智能领域中小企业创新非常重要。”张欣在此前接受21世纪经济报道记者采访时指出,一方面,大模型的研发可能出现新一轮的技术壁垒,监管侧应注意保证利益分配平衡,防止中小企业和初创企业受到行业巨头挤压;另一方面,人工智能技术的创新和组织规模、架构之间有着非常重要的相关性。以OpenAI为例,不难看到,这一领域的创新成果的产生不一定依赖体量巨大的公司。
美国则历经从优先发展到强化监管的态度转变。
根据21世纪经济报道记者统计,2016年以来,美国着眼于人工智能产业资金投入、数据资源利用、人才培养等方面,陆续成立了国家人工智能倡议办公室、国家AI研究资源工作组等机构,出台了如《为人工智能的未来做好准备》《国家人工智能发展战略计划》《2020年国家人工智能计划法案》等一系列人工智能战略与相关政策。
不过,随着本国OpenAI、微软、谷歌等公司在生成式人工智能领域展开“你方唱罢我登场”的竞争,美国也逐渐意识到监管的重要性,转向寻求监管与发展的平衡。
今年4月,美国国家标准与技术研究院宣布制定负责任地使用人工智能的方法框架,试图使政府的AI监管工作方面扮演突出角色。5月,美国白宫总统科技顾问委员会(PCAST)成立了一个生成式人工智能工作组,以帮助评估关键机遇和风险,并就如何最好地确保这些技术的开发和部署尽可能公平、负责任和安全提供意见。
“相较于之前的人工智能立法思路,美欧等国家和地区近来也启动了类似中国监管模式的立法活动。”在赵精武看来,在过去,人工智能技术安全问题被认为是纯粹技术创新领域的问题,其立法规范更多是促进产业发展层面的内容。但随着ChatGPT等实际应用所表现出的强大功能,各个国家和地区都开始注意到其中的风险,对人工智能应用作出限制性或禁止性规定。
更多内容请下载21财经APP