当前位置:首页|资讯|人工智能

专访《人工智能示范法》起草组组长周辉:明晰开源激励、版权风险治理机制,更好护航人工智能安全发展

作者:21世纪经济报道发布时间:2024-04-16

原标题:专访《人工智能示范法》起草组组长周辉:明晰开源激励、版权风险治理机制,更好护航人工智能安全发展

21世纪经济报道记者 冯恋阁 广州报道

日新月异的AI技术正深刻地改变人类生活。在为人类带来生产力变革机遇的同时,人工智能背后也暗藏数据泄露、版权侵权、算法歧视等不可忽视的风险。如何制定有效的治理策略,以应对AI带来的挑战和机遇,成为一个全球性的问题。

2023年8月,南财合规科技研究院参与的中国社会科学院国情调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》,组织课题组起草形成了《人工智能法示范法1.0(专家建议稿)》(以下简称“《示范法》1.0”)发布。

4月16日,由中国社会科学院法学研究所、中国互联网协会互联网法治工作委员会主办,南财合规科技研究院、清华大学科技发展与治理研究中心、同济大学上海市人工智能社会治理协同创新中心等承办的“人工智能治理创新论坛”举行。会上,《人工智能法示范法2.0(专家建议稿)》(以下简称“《示范法》2.0”)发布。

为什么选择“示范法”模式回应发展过程中提出的新问题?从1.0到2.0,《示范法》的变与不变之处何在?具有中国特色的人工智能治理之路应该怎么走?起草组负责人中国社会科学院法学研究所网络与信息法研究室副主任周辉就上述问题接受21世纪经济报道(以下简称“21世纪”)记者专访。

以示范法为抓手,发挥“软法”功效

21世纪:从1.0到2.0,《示范法》升级迭代工作,是在什么样的背景下展开的?

周辉:2023年8月,在立足我国人工智能治理经验、把握人工智能发展规律和全球治理趋势的基础上,我们起草形成了《示范法》1.0并公开发布,得到了国内外广泛关注。

2023年下半年以来,一批国产人工智能大模型先后向公众开放,各类应用、服务不断与人工智能系统融合,更深刻地改变着人们的生产与生活。同时,国内外人工智能治理探索也在紧锣密鼓开展。我国发布《全球人工智能治理倡议》,就人工智能国际治理规则提出中国方案;联合国人工智能高级别咨询机构发布《为人类治理人工智能》临时报告,系统阐述人工智能治理所要应对的风险和挑战;欧盟《人工智能法案》等域外立法也取得重要进展。

经起草组及社会各界反复研讨、交流,《示范法》在结合我国人工智能产业发展实际和全球人工智能治理经验的基础上不断更新,最终形成《示范法》2.0。

21世纪:为什么选择采用“示范法”这种模式提出治理建议?

周辉:示范法最初是美国用于协调其各州间立法冲突的一种模式,后逐渐为其他国家所引入,亦在国际商事仲裁等领域起着增强国家间法律协调的重要作用,我国学者也曾在个人信息保护等领域以“法律专家建议稿”形式提出立法建议。

采用起草示范法的方式提出我国人工智能立法建议,一是希望为我国人工智能立法工作提供具体的条文、制度参考。实际立法时,可以在示范法条文的基础上进行修改或调整,以提高立法效率。二是以示范法为抓手,可以加强学界、业界和政府部门之间的交流互动,在正式法律法规未出台前发挥“软法”治理的功效。三是通过示范法及其多语种版本的发布,可以促进国际间人工智能治理的研究交流,既向其他国家分享我国治理思路,也可学习、借鉴、吸收其他国家实践经验。

税收抵免、负面清单等举措,护航AI健康发展

21世纪:与之前的《示范法》1.0相比,此次发布的《示范法》2.0有何亮点?

周辉:与《示范法》1.0一致的是,我们坚持明确人工智能主管机关、科学设计法律主体架构、划明人工智能安全底线、提出许可管理负面清单等起草思路。

《示范法》2.0中,我们对已有制度设计作了补充和完善,进一步提出一些人工智能治理的新思路新做法。总体来看,《示范法》2.0具有以下创新:

一是在设置人工智能主管机关基础上,明确由人工智能主管机关成立人工智能伦理专家委员会,更好开展人工智能伦理问题研究、指导伦理审查等工作;

二是在按“研发者-提供者-使用者”三类主体进行制度设计的基础上,针对国家机关、平台经营者等人工智能提供、使用特殊主体设置了专门义务

三是在明确人工智能安全风险治理措施基础上,提出以税收抵免优惠等措施鼓励人工智能研发者、提供者在人工智能安全保障方面进行投入;

四是将基于负面清单实施的人工智能许可管理制度与负面清单外人工智能活动的备案制度明确区分,避免过重合规负担影响人工智能产业的经营预期;

五是重视人工智能开源发展,提出促进开源社区建设、制定专门合规指引、明确责任减免规则等支持措施;

六是构建知识产权创新规则,在研发环节对训练用数据、个人信息的使用作出专门安排,并针对人工智能生成物的成果保护与侵权认定进行规定

21世纪:你认为,中国的人工智能立法工作应该遵循怎样的原则?

周辉:近年来,我国围绕新技术新应用出台了一系列立法,形成了兼顾发展与安全、坚持问题导向、实施审慎监管、划清信息内容红线底线等一些行之有效的思路和做法。考虑我国人工智能治理需要,未来的人工智能立法工作宜遵循以下原则:

一是要平衡好人工智能发展与安全之间的关系。营造人工智能创新生态,一方面要建立鼓励创新、促进发展的体制机制,破除发展过程中的束缚、障碍,规定技术创新应用的容错机制;另一方面要建立能够满足发展需要的监管框架,提升监管可预期性,创新监管方式,设计科学的责任义务。

二是注重立法前瞻性。人工智能尚在快速发展之中,技术应用更新迭代较快,潜力和风险均不明确。对人工智能带来的新问题新需求,应在充分研究论证的基础上作出必要规定;对目前不便于形成结论的细节性问题,要在指明方向的基础上留出未来完善与制度衔接的空间。

三是保障法律的协调性和可操作性。对于我国现有法律中已经设立的网络数据安全监管、个人信息保护等制度和通过修改相关法律可以解决的问题,不宜重复规定;设计监管制度、合规义务时,应易于相关主体理解和执行,避免成本过高或标准不明,影响制度落地实施。

更多内容请下载21财经APP


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1