当前位置:首页|资讯|AIGC

大模型版权风暴来袭:AIGC第一案宣判,WPS隐私条款引风波

作者:IT时报发布时间:2023-12-06

近日,国内AIGC第一案一审判决结果公布。法院判决原告享有涉案图片的著作权,被告行为构成侵权,应当承担相应的法律责任。

今年初,原告李某使用开源软件Stable Diffusion通过输入提示词的方式生成图片,并发布在社交平台。之后,李某发现刘某百家号文章中使用了该张图片,于是提起诉讼。

Stable Diffusion将生成物的版权完全赋予用户本人,这成为原告能够胜诉的原因之一。不过,并非所有的大模型公司都愿意将生成物版权交给用户。那么,用户生成的版权究竟归谁?

风波不止于此。最近WPS“针对用户主动上传的文档材料,在采取脱敏处理后作为AI训练的基础材料使用”的隐私条款引发外界关注。在舆论压力下,WPS随后更改了隐私条款。但不少大模型的隐私条款中仍有类似的规定,这引起用户的担忧,自己的数据会被当成训练大模型的“养料”吗?

同样的问题,不同的答案

“生成作品的版权属于谁?”面对《IT时报》记者这样的提问,大模型们给出了不同的答案。

智谱清言大模型回答称,“您基于智谱清言生成的内容版权由您自行维护并对其独立判断后使用。若版权问题对用户造成损失,智谱华章公司不会负责,但用户因此给智谱华章公司造成损失,公司有权向用户追偿。”

文心一言的回答展现出“太极风”,“目前在法学界和司法还没有统一答案,建议咨询法律专业人士。”商汤SenseChat也是如此,称“版权取决于用户与商汤之间的具体协议或使用条款。”

讯飞星火和MiniMax则明确回答:“版权属于公司所有。”

答案大相径庭,与每家大模型对AI生成物知识产权的规定有关。

讯飞星火在《用户体验规则》的2.2条表示:“未经我们书面同意,您无权复制、传播、转让、出售、出租、出借、许可、转让、提供他人使用或以任何商业化方式使用本服务生成的内容(输出内容)。”4.2条又规定:“除非有相反证明,您使用本平台服务上传、发布或传输内容即代表了用户不可撤销地授予科大讯飞及关联方非排他的、无地域限制的、永久的、免费的许可使用(包括存储、使用、复制、修订、编辑、发布、展示、翻译、分发上述内容或制作派生作品等商业或非商业使用)及可再许可第三方使用的权利,以及可以自身名义对第三方侵权行为取证及提起诉讼的权利。”

这可以理解为,用户在讯飞星火上传的文本、图片等信息,都可以被公司进行商业或非商业使用;但用户想使用自己主导的生成物时,却要经过讯飞的书面同意。

文心一言相关条款表示,百度在文心一言服务中提供的内容(包括但不限于软件、技术、程序、用户界面等)的知识产权属于百度,用户在输入内容的版权不会发生因为上传、发布而转移。但并未明确输出作品的版权。

智谱清言在条款中则表示:“您基于智谱清言生成的内容的版权由您自行维护并对其独立判断后使用。”

律师称“具体情况具体分析”

我更倾向于版权归使用者所有。”面对各不相同的大模型《用户协议》,北京浩天律师事务所知识产权律师刘松慧表示。

在刘松慧看来,著作权归大模型企业还是用户,需要具体情况具体分析。其中的关键点在于,生成物是否具有独创性和人类智力成果。“就独创性而言,如果只是单纯让大模型写一首诗或策划一份旅游方案,不符合上述要求,不受法律保护;如果创作者提供了充分的内容大纲或图片模板,对于大模型反馈的文本进行反复调整与润色,让AI生成物体现出创作者的个性化选择、判断、安排和技巧等,这样就可能具备作品的独创性要求,可以受到相关法律保护。”刘松慧说道。

中国政法大学传播法研究中心副主任朱巍在接受媒体采访时表示,对于AI生成内容版权的认定,企业方面的用户协议是站在自己的角度来考虑,这并不影响法律的判决。他认为,目前还处于弱人工智能时代,现有的著作权法可以适应于大模型生成物,等到了强人工智能时代,版权才可能出现较大争议,“现在更多应该强调大模型使用规范、科技伦理,做好底线监管。”

WPS隐私条款风波

就在AI生成图片著作权侵权第一案一审结果披露的前几天,11月18日深夜,WPS致歉声明引发关注。

之所以致歉,是因为此前WPS在隐私条款中这样规定:“我们将对您主动上传的文档材料,在采取脱敏处理后作为AI训练的基础材料使用。”

此则条款引发轩然大波,WPS随后发表致歉信,并更新了隐私政策,承诺所有用户文档不会被用于任何AI训练目的,也不会在未经用户同意的情况下用于任何场景,并通过第三方独立机构,定期进行隐私政策的合规性审查,以确保承诺得到兑现。

虽然WPS更改了隐私条款,但记者发现,不少大模型企业在隐私政策中,都有“在法律适用情况下,我们会通过技术手段对个人信息进行去标识化处理,并可能将该数据用于模型算法训练”的类似表述。

讯飞星火在《讯飞开放平台隐私协议》中的“数据处理说明”提到:“根据适用的法律法规,讯飞星火可能会对用户的个人信息进行技术处理,并对处理后的信息进行匿名化或去标识化的学术研究或统计分析(包括使用匿名化或去标识化后的语音信息进行模型算法的训练),以更好地提升产品功能和服务能力。”

文心一言在《个人信息保护规则》中表示:“会通过技术手段对个人信息进行去标识化处理后,去标识化处理的信息将无法识别主体。在此情况下,文心一言有权使用已经去标识化的信息;在不透露用户个人信息的前提下,有权对参与体验人员数据库进行分析并予以商业化的利用。”

此外,豆包、智谱清言、百川智能、商汤SenseChat等也都无一例外提到去标识化、匿名化处理,以及在法律适用情况下,有权将处理过的数据用于大模型训练和商业化。

平台应设立自动过滤机制

那么这些经过去标识化、匿名化、脱敏等处理的数据,未经本人同意企业就可以随意使用吗?

“从法律层面来说,经过去标识化和匿名化的个人信息和数据,由于不能保证数据的真实性,所以不再为个人所有。”恰宝律师事务所律师何思源向《IT时报》记者解读,根据《中华人民共和国个人信息保护法》规定,个人信息是以电子或者其他方式记录的与已识别或者可识别的自然人有关的各种信息,不包括匿名化处理后的信息。根据《数据安全法》规定,数据处理则包括收集、存储、使用、加工、公开等,在信息处理过程中,处理者不得窃取或以其他非法方式获取数据。

但在实际情况中,企业对信息处理是否干净、是否合法,用户却不得而知。

上海大邦律师事务所知识产权律师游云庭在接受媒体采访时表示,大模型训练所用的数据是个黑箱子,用户可能不知道被侵权,即使知道了也很难收集证据举证。因此,他认为大模型平台在用户上传信息阶段应当设计自动过滤机制,过滤掉个人信息。这也应该成为平台的责任和法定义务。

查看上线的几款大模型用户协议和隐私政策,为数不多提到过滤机制的只有MiniMax。其表述为,“MiniMax不会将用户的对话和注册、申请开放平台时的个人信息进行绑定或建立任何关联,同时会提升服务的过滤机制,尤其是个人明个信息的对话内容进行过滤、删除并不予保存。”

如此看来,大模型在隐私政策中对于用户要求“需同意,否则无法享受该服务”,而对于自己却是“可能使用处理过的数据进行大模型训练和商业化”。面对这样不对等的协议,用户想保护个人信息不被用作大模型的训练数据,只能在使用大模型对话时尽可能少的透露隐私,还可以根据《隐私政策》规定,要求企业撤回使用自己的数据。

本文来自微信公众号“IT时报”(ID:vittimes),作者:沈毅斌,编辑:钱立富 孙妍,36氪经授权发布。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1