近日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》,将更新迭代周期显著缩短的人工智能技术创新纳入法治化轨道。以此为基点,当前方兴未艾的人工智能产业有望进一步理顺发展逻辑,告别野蛮生长。
一段时间以来,社会各界还在预测符合人类思维模式的人工智能技术究竟会何时出现。ChatGPT横空出世,打破了社会公众的传统认知和发展预期。短短数月之后,性能更为强大的GPT-4更是倒逼人们重新审视“人工智能像人一样思考”这一科幻小说中的情景。当然,任何技术的创新发展都不可避免地伴随着技术风险。除了人工智能领域固有的数据安全风险、算法歧视、网络犯罪等问题,生成式人工智能还对社会运行方式产生潜移默化影响。此番我国率先就此立法,目的就是在产业发展初期就能为相关技术的研发明确规范,引领产业朝着良性的方向发展。
从此次《管理办法》的主要内容看,主要体现出四方面的特征:
一是精准定位生成式人工智能技术应用的滥用风险,针对性地设置人工智能研发与应用的合法性边界。如针对数据安全风险,明确服务提供者应当确保预训练数据、优化训练数据来源的合法性;针对潜在的著作权侵权风险,明确服务提供者需要尊重知识产权。
二是细化服务提供者的义务履行方式,协调技术创新与技术安全之间的法益冲突。《管理办法》并不是生成式人工智能产业的“紧箍咒”,而是基于《网络安全法》《数据安全法》等既有法律法规,对相关服务提供者义务履行方式的进一步细化,可谓是一份更具操作性的业务合规标准。
三是重视科技伦理在技术风险治理领域的重要作用。《管理办法》多次提及的人工智能产品或服务不得含有歧视性内容、尊重商业道德等内容,强调服务提供者应当以社会主义核心价值观作为AI生成内容的核心标准。
四是采用了全流程安全监管的基本逻辑,从生成式人工智能的技术研发到具体的产品推广,再到事后用户的使用反馈,均纳入法治调整范畴。所谓的“人工智能技术安全”并不仅仅体现于事后的责任认定或损害赔偿,同样表现为在算法设计阶段遵循数据安全保护义务、科技伦理规范。
从世界范围看,中国是较早着手探索人工智能法治化建设的国家之一,此次《管理办法》的制定更具有某种标志性意义,那就是我们对于新兴技术产业的立法规制,正在从单独立法、专门立法转向条款规则的体系化。在人工智能基础理论研究尚未取得实质性突破的背景下,不同类型人工智能技术应用的监管体系和监管规则其实并没有本质性变化。更确切地说,无论是深度合成,还是个性化推送,抑或是生成式人工智能,这些技术应用风险并没有产生与过去完全不同的技术风险类型,只是加剧了既有技术风险的发生概率和作用形式。
安好护栏、装好刹车,才能更好上路。从这个意义上说,《管理办法》将人工智能产品或服务提供者的义务内容进行了重申,其实是将“有法可依”更有针对性地落实到了人工智能这一具体技术领域。这样的立法探索,将为我国未来的体系化立法积累更为全面的实践经验。
(作者单位:北京航空航天大学法学院)
来源:北京日报
作者:赵精武
流程编辑:U031
版权说明:任何媒体、网站或个人未经书面授权许可不得转载、摘编或利用其它方式使用本网站上的文字、图片、图表、漫画、视频等内容。
未经许可即使用,或以此盈利的,均系侵害本网站著作权及相关权益的行为,本网站将追究法律责任。
如遇作品内容、版权等问题,请在相关文章刊发之日起30日内与本网联系。
联系方式:takefoto@vip.sina.com