中新经纬4月17日电 题:建议仅对适用于高风险生成式人工智能应用施加真实性义务
作者 陈兵 南开大学法学院副院长、教授
4月11日,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》(下文简称“《征求意见稿》”)。《征求意见稿》的发布意味着中国第一时间将AIGC(人工智能生成内容)技术创新应用及相关产品开发有针对性地纳入法治化治理架构,树牢“安全是发展的前提”的底线思维,明确为新技术、新产业、新业态的发展指明合规发展的主线。
同时,其中还存在可进一步讨论之处,如何更好地设计规则以统筹安全与发展的关系尤为重要,在夯实安全发展的基础之上,给予创新发展以可容、可信、可控的制度环境,以高质量的制度型开放为中国人工智能技术和产业的弯道超车,提供科学有力、坚实坚定的制度支撑,释放创新是发展第一动力的明确信号。结合《征求意见稿》,笔者有五点理解:
一、《征求意见稿》第六条规定的安全评估,算法备案和变更、注销备案手续等事前审查规定是有意义且有必要的,但是需要注意事前审查的方式方法,避免不合理地增加企业的负担。
任何技术都是一把双刃剑。生成式人工智能产品作为高度智慧化的人工智能形态,带给人类社会的便捷与风险同在,应勇敢审慎地应对接受新科技浪潮的洗礼。《征求意见稿》增加事前审查,不仅可以提升利用生成式人工智能产品向公众提供服务的合法性,增加其安全、可靠、可解释、可问责等可信性,还有助于更好地实现AI产品和技术适用的包容性,更好地预防风险,保障安全,及时发现其运作程序、服务内容所存在的问题,从而提高生成式人工智能产品向公众提供服务的可接受性。
建议进一步明确事前审查的审查范围以及方式方法。由于事前审查会在一定程度上增加企业的合规成本,若事前审查范围设置不当,可能会抑制生成式人工智能产品的研发与训练效能,客观上会导致生成式人工智能发展的降速。因此,需注意事前审查的方式方法可能对企业经营产生的影响,譬如企业未经审查之前,是否能够发布相关产品,若不能,事前审查所需要的时间是否会不当地阻碍企业的正常经营行为等等。
二、《征求意见稿》第五条针对责任主体方面进行了细化规定,生成式人工智能产品提供者承担该产品生成内容生产者的责任,该规定是对人工智能追责体系的补充和完善,但也需考虑到提供者对人工智能产品控制力度的有限性,否则可能会导致提供者责任的承担范围会被不合理地放大,建议进一步明确提供者的免责事由。
生成式人工智能产品提供者承担该产品生成内容生产者的责任,这里实际上需要关注的重点在于对生成内容生产者的认定。如果生成式人工智能产品提供者是生成内容的生产者,这里的生产者即应对生成内容的过程、具体数据信息的真实性和算法使用的适当性等整个生成过程负责,那么当然需要对其承担责任。该规定是对生成式人工智能产品提供者(通常是平台主体)应该尽到高度注意义务的规定,在一定程度上讲,也只有为生成式人工智能产品提供者确定相应的责任义务,才能更好地对生成内容的合法合规作出要求。
建议参照“安全港”制度合理设置平台承担责任的范围,明确提供者免责事由。如果平台尽到相应注意义务,在责任的承担上,鉴于其对创新发展的贡献,不宜施加其严格责任,否则不利于技术的开发和未来商用。另外,关于运营公司是否需要承担相应的补充责任,应综合考虑侵权范围、损害程度以及平台避免损失扩大的能力。
三、《征求意见稿》第十七条规定提供者应当根据要求提供可以影响用户信任、选择的必要信息。该规定实际上是对生成式人工智能算法的可解释性提出了新的要求,使隐私权、个人信息的保护不再仅局限于被动的事后救济,保护链条前移,更加积极有效地规范AI训练过程,有助于增强用户信任,使生成式人工智能产品更好发展。
建议进一步细化对提供者公开信息的范围和限度。对可解释的要求不能过于苛刻或过度放大,应当进一步规定对信息公开的程度和限度,避免提出不合理要求使生成式人工智能算法的关键信息被迫公开,导致企业的技术机密泄露,对企业创新发展产生不可挽回的损失。
四、《征求意见稿》第十五条规定,对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。该规定针对生成式人工智能的关键问题,对症下药,丰富和完善了对生成式人工智能违规的处理方式。
建议优化并完善验证整改优化的方式方法。整改优化的结果验证应落实于技术实践,在尊重技术实践及规律的基础上,辅之以监管保障,鼓励和支持平台探索创新并优化技术实现路径。为此,在设定技术运用的基本门槛之上,落实于实践试用,加之定期和不定期的监测,保证其整改优化结果的安全性与可信度。在整改优化后,可通过人工测试模拟运行、“监管沙盒”以及设置监管过渡期等方式,检验整改优化后的内容生成是否仍存在不符合规定的生成内容。
五、《征求意见稿》第四条规定利用生成式人工智能生成的内容应当真实准确。该规定主要针对目前生成式人工智能无法保证生成信息的真实性问题,目前生成式人工智能并不会对生成内容的正确性进行验证,这可能会导致一些缺乏专业知识的人误将生成内容作为正确答案。但是,以目前主流的生成式人工智能技术来看,主要是通过强化学习和搜索增强等方式,提升生成内容的逻辑性和可读性,但并不能像人一样去辨别内容的真实性。
若将生成式人工智能生成的内容应该真实准确作为提供者的义务,目前AI难以自行完成,这意味着,中国的生成式人工智能提供者必须通过人工审核的方式达成义务。但是,这在很大程度上会影响生成式人工智能的运行和生成内容的效率,降低消费者用户的体验,而且也会增加企业的负担,花费大量的人力和技术资源用于审核信息。
生成式人工智能目前仍主要作为人类工作的辅助工具,用户仍可以通过指令的方式实现对生成内容的控制,而且在多数场景中,内容生成多为私人使用,生成后并不会自动向公众公开和传播,因此,对于生成式人工智能的义务规定,仍需要区分使用场景。
从用户需求和服务体验来看,用户对于此类工具的使用有隐私和保密方面的需求,人工审查的方式也不利于满足用户对于隐私保护的需求,实际上也对生成式人工智能的功能产生影响。且从事实层面来看,赋予主体审查义务,必须考虑该主体对于审查的可控性和技术实现的可能性,而在现实中,用户是对生成内容有直接控制的能力,提供者能够通过完善算法的方式提升信息生成的准确率,但无法100%保证真实准确。
建议将该条款调整为一种鼓励式、提倡式的条款,仅对适用于特殊场景的高风险生成式人工智能应用施加真实性义务,譬如,有些平台将生成式人工智能内置在平台之中,此时生成内容会直接进行公开传播,在这种场景下,存在虚假信息传播的风险,且平台拥有对信息传播的控制力。2022年9月通过的欧盟《人工智能民事责任指令》规定只有高风险的AI应用才承担严格的责任。