“
对于生成式AI侵权,到目前为止没有完全超出《民法典》和《个人信息保护法》的规定,现行规则仍然可以作为处理和解决纠纷的依据。
本文字数2627,阅读时长约8分钟
文|财经E法 樊瑞 杨柳
编辑|朱弢
人工智能(AI)是新一轮科技革命和产业变革的核心力量。一个不可忽视的问题是,应当如何看待和应对生成式AI的侵权行为?
中国法学会副会长、中国人民大学一级教授王利明表示,对生成式AI应该秉持鼓励创新、预防风险的立场,要尽量强化预防风险,而不是强化制裁。具体来说,生成式AI侵权应适用“避风港”原则,通常情形下也适用民法上的过错责任原则。
在7月6日的2023全球数字经济大会知识产权与数字经济发展专题论坛上,以及7月7日的2023世界人工智能大会法治论坛上,王利明分别就生成式AI的侵权话题发表了自己的观点。
王利明总结指出,对于生成式AI侵权,到目前为止没有完全超出《民法典》和《个人信息保护法》的规定,现行规则仍然可以作为处理和解决纠纷的依据。但他也指出,这并不意味着现有法律就已经足够,还需要建立相关的合规标准。
王利明建议,在未来条件成熟之时,有必要通过特别立法进行有效应对,从而更好的预防生成式AI引发的各种侵权风险,有效保障民事组织合法权益,促进人工智能产业的健康发展。
01
生成式AI具有特殊性
何为生成式AI?国家网信办在4月11日发布的《生成式人工智能服务管理办法(征求意见稿)》中,对其给出定义,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。
王利明认为,生成式AI以亿万级的庞大数据为参数,具有更为出色的生成能力,因用途广泛和应用价值高备受关注,其最大的法律风险是因为生成虚假信息等可能造成的侵权。
王利明表示,生成式AI的侵权客体与传统的侵权和网络侵权行为有所不同,因其是向特定用户提供,所以侵权本身并不具有公开性,不会出现大规模直接侵害人身和财产的现象,也不会致使某一个具体的受害人造成重大损失,主要侵害的是人格权和知识产权。
但他也指出,这种侵权有可能带来很大的法律风险。因为生成式AI可能会生成虚假的图片、视频和信息,这些虚假信息一旦大面积传播,不仅会给社会上的人造成人格权等权益的重大侵害,甚至可能引发严重的社会问题。
此外,生成式AI的侵权主体也具有复杂性和多元性的特点。王利明表示,它既可能因为服务提供者的过错引发数据的泄漏,生成虚假信息。也有可能是因为用户在使用过程中故意通过诱导的形式,导致生成虚假信息。同时,还存在一种可能,也即生成式AI自身生产中的固有缺陷导致了侵权风险。此外,也可能是用户和服务提供者的共同过错交织而引发侵权。
王利明指出,鉴于这些生成式AI侵权主体复杂性和多元性,要区分不同的场景,来明确不同主体的责任。
02
应以鼓励创新、预防风险为取向
对于生成式AI侵权认定,王利明表示应该先明确价值取向,“我一直认为,对这样一种科技创新我们还是应该秉持鼓励创新、预防风险的立场。”王利明指出,与各种风险相比,生成式AI最大的风险是技术落后、被“卡脖子”的风险。他强调,法律应当尽量的鼓励创新,要尽量强化预防风险,而不是强化制裁。
基于以上的价值取向,王利明表示,对于生成式AI的侵权要区分两种行为:一种是生成式AI服务提供者非法处理或泄漏个人信息的责任,另一种是一般利用生成式AI产生虚假信息等带来的侵权责任。
王利明强调,非法处理或泄漏个人信息的责任是比较重的。现行《民法典》和《个人信息保护法》都对此做过明确规定。具体来说,《个人信息保护法》采取过错推定,可以不用举证证明过错直接可以从非法处置或泄漏行为中推定行为人有过错,在过错认定上更加严格,因此责任更加重一些。同时也可依据《个人信息保护法》等规定使用特殊的救助机制,比如享有查询更正权、删除权、补充权等。
而对于一般性的生成式AI侵权,王利明认为应当坚持过错责任原则。按照民事法律原则,若适用过错责任原则,意味着只有因故意或过失不法侵害他人权益时,才就损害担责。与过错责任原则相对应的,则为过错推定原则,这是一种举证责任倒置机制,须由加害人证明自己不存在过错。两者相比,后者更为严格。
王利明还表示,在现有的AI技术条件下,如果已经尽到了最大的注意义务,仍然不能避免和防范损害的发生,便很难认定行为人存在过错。
03
可适用“避风港”原则
王利明表示,如果生成式AI生成了虚假信息,是否可借鉴网络服务侵权里的“避风港”原则(即“通知-删除”机制),这在美国学者中有热烈讨论。“个人认为应该可以适用这个规则。”他进一步解释,利用生成式AI侵权和利用网络实施侵权在性质上具有极大相似性。“通知-删除”规则之所以被纳入《民法典》,是考虑到网络平台上存在海量的信息,网络服务提供者无法一一甄别这些信息,从而保证不会出现侵害他人权益的信息。
这一种现象与利用生成式AI带来的侵权行为具有极大的相似性,生成式AI的服务提供者无法确定生成的每一项信息的真实性、客观性。尤其是要考虑到生成式AI出现的虚假信息,很多是现有的技术条件下难以避免、难以控制的,因为技术本身还在发展,仍然处于不断完善之中,难避有缺陷存在。
王利明表示,“我认为适用‘通知-删除’规则,有利于鼓励技术的创新,而不是说一旦发生了这种损害就要承担责任。”
在谈及对信息和隐私安全的保护时,王利明认为,应当从法律上要求生成式AI服务提供者尽到对个人信息和隐私的安全保障义务。这些义务包括,收集真实可靠的数据进行训练,对这些收集的数据分类处理,以及采取必要的安全维护保障措施,防止信息大规模泄漏。
AI大模型浪潮席卷以来,虚假信息生成等引发的侵权责任认定问题,已为学界和业界所关注。
此前,南开大学法学院副院长陈兵亦向财经E法表示:“生成式AI服务提供者的侵权责任判断,通常应考察情形是否满足过错要件,尽到了相应注意义务。”他说,现有侵权法体系能够应对生成式AI服务提供者的民事责任问题,但有必要为新兴事物发展预留一些空间,保持一种宽容、歉抑的态度,避免给企业过重的负担,否则不利于生成式AI技术的开发和未来商用。
“这意味着,传统的基于工业经济下的侵权责任规则,有必要回应数字经济下AI产业发展,予以相应调整。”陈兵认为,可以参照“避风港”原则,完善服务提供者的抗辩事由,设置相应的纠错容错机制,明确规定当服务提供者满足相应条件或者履行一定义务的情况下,可以免责或者减轻民事责任。譬如,服务提供者若能够证明其AI大模型不存在可能导致侵权内容自动生成的缺陷,则可以免责;服务提供者若能证明其已建立防止侵权的内容检测机制,并在一定程度上减轻了侵权损害后果,可以减轻责任。