4月11日,国家互联网信息办公室(简称“网信办”)发布通知,就《生成式人工智能服务管理办法(征求意见稿)》,旨在促进生成式人工智能健康发展和规范应用,为行业长远发展保驾护航。
对于《征求意见稿》中的一些实践适用中的细节,广东财经大学法学院教授姚志伟认为还可以进一步讨论。如第五条对“提供者”施加了“内容生产者”的责任。一方面,提供服务的平台是重要的责任主体,监管对平台进行监管,是必要的。对于用户依法正常使用人工智能的行为,平台未按照法律规定进行审核,或未对涉嫌违法的内容采取必要措施,应承担相应的责任。在我看来,人工智能内容责任是否应该全部加到平台方,有待研究。
首先,“使用者”也可能要承担人工智能内容责任。例如,使用者故意突破“提供者”为生成式人工智能设置的安全防线,致使生成违法的内容,这个责任通常不应由“提供者”来承担。其次,违法的生成内容仅会传递给“使用者”,而对这些违法内容进行复制、发布、传播往往是由人来完成的,这些行为的责任不应由“提供者”来承担。最后,“内容生产者的责任”其实是一个比较模糊的概念,从字面上看,是创建内容的一方承担的责任,不仅包括内容安全责任,还可能包括知识产权侵权、民事责任等应该在民事法律体系框架内解决的责任,不宜由部门规章进行规制。
很多问题是在发展中解决的,我国人工智能产业发展尚处于初期阶段,与国外差距比较明显,如同万里长征第一步,还需要引导企业积极创新,迎头赶上。正如《征求意见稿》第三条指出,国家支持人工智能技术创新,从促进人工智能产业的发展和国际竞争的角度出发,如果对企业责任过重,可能会抑制企业的创新热情和技术进步。
就此,可以考虑采取二元化的策略,对于危害到国家安全和重要公共安全的问题,列出清晰的规则,明确法律责任和后果,划定底线进行监管。而对于个人信息保护、知识产权侵权、人格权侵权问题,则可以先观察和等待。待产业实践更成熟、可供参考的海外经验更多的情况下,再进一步进行这部分的立法监管也更可期。