作者:上海锦天城(重庆)律师事务所 高级合伙人李章虎律师
近年来,以ChatGPT为代表的人工智能技术发展迅速,它能够模拟人类的思维方式,具有高水平的语言理解和表达能力,许多人竞相与ChatGPT对话,以得到智能输出的成果信息。但在感受人工智能应用强大的同时,也带来了知识产权、个人信息保护、数据安全等一系列法律风险,引发了人们对其潜在影响的担忧。那么,ChatGPT是什么?ChatGPT的数据来自哪里?ChatGPT生成的信息会受到保护吗?ChatGPT研发者是否需要承担侵权责任?ChatGPT可能产生哪些社会或伦理问题?上海锦天城(重庆)律师事务所高级合伙人李章虎律师、实习生李檬,通过检索汇总相关问题的官方或可证渠道内容,撰写如下十问,供大家多角度认识ChatGPT及相关应用产品。
一问:什么是ChatGPT?
ChatGPT名称包括了两个部分:一个是 Chat,另一个是 GPT。Chat指的是聊天,GPT是 Generative (生产)Pre-trained (预训练) Transformer(转换器)的缩写, GPT译为预训练生成模型, Chat与GPT结合的意思是预训练生成聊天模型。ChatGPT是美国 OpenAI公司研发并于2022年11月30日正式推出的一种大型语言生成模型,该生成模型基于人工神经元网络-深度学习技术,通过深度学习互联网信息实现对已有作品(图像、文字、代码)的程序化修改。例如,输入“给猴子 P上电脑和帽子”指令后,输出的动图中,猴子、电脑和帽子的照片明显都是由人工智能机器人识别并自动找到的素材。如同人类作者需要参考已有文献资料而进行创作一样,人工智能创作也需要创作素材来“喂养”。
(图片来源:OpenAI)
就其功能而言,ChatGPT可以帮助使用者进行内容创作,如写报告、写论文、写诗、写歌等;可以帮助使用者准备考试,如批改论文,生成相关习题等;还可以帮助使用者编写代码、调试程序、整理会议纪要、制作 PPT等。
目前,国内类似产品有 “文心一言”和“通义千问”。“文心一言”是百度全新一代知识增强大语言模型,拥有超过1000亿个参数,是当前世界上最大规模的中文知识增强大语言模型,能够与人对话互动、回答问题、辅助创作,能高效便捷地帮助人们获取信息、知识与灵感。此外,“通义千问”是阿里云推出的一个超大规模的语言模型,功能包括多轮对话、文案创作、逻辑推理、多模态理解与多语言支持,能够跟人类进行多轮的交互,也融入了多模态的知识理解,且有文案创作能力,能够续写小说,编写邮件等。
二问:ChatGPT有很强大的功能,可以帮助使用者做很多事情,那么ChatGPT的知识(数据)来自哪里?
ChatGPT的丰富知识储备来自于人类“喂养”它的训练数据,现阶段,数据来源主要包括:网络上的文本数据、社交媒体数据、问答网站数据、新闻站数据、文学作品数据等。这些数据来自不同的供给端,比如可以通过爬虫程序自动收集,也可以由拥有相关数据的机构提供。另外,发现应用人员与它对话交互问答,也是它一种数据来源。ChatGPT对用户的输入内容享有广泛的使用权,若用户输入的内容涉及个人隐私、商业秘密等内容,则存在相关数据被泄露的可能性。
三问:ChatGPT的知识既然来源于网络、社交媒体、文学作品等多个供给端,那么它生成的信息会受到保护吗?
《著作权法》保护的是一种在特定领域内具有独创性的思想表达,而非思想本身。独创性的认定,关键在于判断作品是否由作者独立创作完成,以及作品对表达的安排是否体现了作者的选择、判断等。在理论界,学者们围绕人工智能生成内容是否应受著作权法保护的问题还未有定论;在实务中,北京知识产权法院审理的“菲林”案与深圳市南山区人民法院审理的“Dreamwriter”案亦存在不同的裁判观点。具体而言,2019年“北京菲林律师事务所诉北京百度网讯科技有限公司侵害署名权、保护作品完整权、信息网络传播权纠纷案”中,法院认为自然人创作完成仍应是著作权法上作品的必要条件,软件研发者(所有者)和使用者均不应成为分析报告的作者,但应当激励软件使用者的使用和传播行为,将分析报告的“相关权益”赋予其享有。而在2020年深圳市南山区人民法院判决的人工智能生成文章作品纠纷 “腾讯诉盈讯科技侵害著作权纠纷案”中,法院认为涉案文章属于我国著作权法所保护的文字作品,是原告主持创作的法人作品。总之,在人工智能生成内容是否受到著作权法保护的问题上,理论和实务界都没有统一的观点。不过,随着技术的发展,人们对于这一问题的认识也在不断变化,未来可能会出现更多不同的观点。
个人认为,具有独创性的思想表达内容,首先肯定要保护;其次考虑是使用著作权法保护,还是依据《民法典》以一般“可保护法益”进行保护,今后法院可作出统一的裁判结果。
四问:ChatGPT研发者OpenAI 对于生成内容涉及的侵权问题,是否需要承担责任?
关于是否构成侵权,可以从侵权行为可预见性、侵权行为控制力、侵权直接获益等角度评估ChatGPT研发者OpenAI。ChatGPT作为一种通用技术或者服务,符合知识产权法中的“技术中立原则”或者说“实质性非侵权用途”,因为输出的内容具有不确定性,既可能侵权,更可能不侵权;并且对于下游模型商业应用者和最终用户的使用行为不具有实际的控制能力。因此,AI模型研发主体OpenAI 原则上无需对生成内容涉及的侵权问题担责。但是,如果输出的内容涉嫌侵犯别人隐私等实体权利,研发主体又没有加以措施限制则有可能侵权;另外,就输出的内容被新应用者商业性使用,而侵犯别人的在先权利等,应用者需要承担责任。
值得注意的是,2023年4月11日,国家互联网信息办公室(简称“网信办”)发布通知,就《生成式人工智能服务管理办法(征求意见稿)》向社会公开征求意见,意见反馈截止时间为5月10日。其中第五条规定“利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务”。以及第七条“提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。”可见,我国对类似ChatGPT软件应用的提供者是否有责任,根据不同情况同步制定在规则中了。《征求意见稿》如正式出台,则标志着我国生成式人工智能进入规范发展阶段。
五问:有些人会通过使用ChatGPT 来撰写研究报告、论文甚至家庭作业,怎么判断由ChatGPT 生成,还是人创作的?
由于技术的不断迭代进步,ChatGPT的能力也在不断提高,没有绝对可靠的方法来完全区分,并且越来越难以被准确地检测出来。至少目前阶段(2023年4月19日),引用网上一位大神的经验,可以从以下几方面尽量分辨:
1)逻辑连贯性:尽管ChatGPT生成的文本通常在语法和结构上很自然,但有时它可能在逻辑连贯性方面存在问题。如果一段文字在结构上完整但逻辑关系模糊,这可能是由AI生成的。2)细节准确性:ChatGPT在一定程度上受限于其训练数据,因此可能无法生成特定领域的精确信息。如果一段文字包含了不准确或过时的信息,这可能表明它是由AI生成的。
3)文本重复:ChatGPT有时会在生成的文本中重复某些短语或句子。如果发现一段文字中存在明显的重复内容,这可能是一个AI生成的迹象。
4)奇怪的回答:
5)过于中立:ChatGPT倾向于生成中立且无争议的内容。如果一段文字过于中立或对某个观点没有明确的立场,这可能是AI生成的迹象。
(强调下,上述经验陈述内容著作权归原作者)
六问:ChatGPT会不会泄露个人隐私?
河有两岸,事分两面。近年来,我们的经济社会快速发展,在享受人工智能开发红利的同时也不可避免的面对技术创新带来的问题,尤其是当前受到普遍关注的个人隐私泄露问题。
援引 意大利数据保护局 认为, ChatGPT 存在四个问题:
1)OpenAI 没有年龄控制来阻止 13 岁以下的人使用文本生成系统;
2)它可以提供有关人员的不准确信息;
3)尚未告知人们其数据已被收集;
4)ChatGPT用于训练而收集海量个人信息 “没有法律依据”。
虽然,ChatGPT目前不提供中国国内使用,重要原因是不满足我国的数据安全要求。1)数据本地化要求不满足:其用户条款第九条明确声明了,所有的用户数据都会被转移到美国,而我国数据跨境传输是有严格规定的,不满足国内法规要求,采用类似苹果数据云上贵州,特斯拉上海机房是必要条件。2)敏感数据处置有风险:其注销声明中明确提到了,可以注销且删除账户信息,但会话中的敏感信息是无法删除的,会被后续训练使用,敏感数据也会被分享和三方存储。但是,实际上,国内不少人和单位仍然通过其他方式在OpenAI进行注册并使用其服务,甚至在网络购物平台由卖家销售账号。ChatGPT的服务器在海外,如果在使用过程中输入敏感信息活动代码,可能会带来数据安全威胁,因为 ChatGPT可能会泄露用户对话数据,还有付款服务支付信息,这些信息一旦被泄露,就会对用户的隐私和财产造成严重的威胁。
七问:ChatGPT可能产生哪些社会或伦理问题?
1)职业风险。大家比较关注的是一些工作岗位可能会被人工智能机器人取代,从而导致一些人失业。例如,ChatGPT可以帮助人们解决语言交互问题,应用于客服机器人、虚拟人、翻译、家庭陪护、法律咨询等多个领域,提高工作效率。再者,ChatGPT依托语言编写,可应用于编写和调试计算机程序,进行文学相关领域的创作,法律文书编写等。此外, ChatGPT结合搜索引擎很可能会打破传统模式,呈现出一种“以传统搜索引擎为主+基于神经网络的语言模型为辅”的模式,搜索结果将会更加“人性化”。这些方面,人工智能有望做得比人类更出色。
2)ChatGPT技术可能会忽略用户的隐私。尽管 ChatGPT可以通过与用户的的实时聊天来分析和理解大量的文本信息,但ChatGPT使用了无监督的预训练方式,在这种情况下,它可能会忽略一些重要的用户隐私信息,如用户的位置、联系方式、金融信息等。这种信息一旦被不当利用或传播,就有可能危及到用户的个人隐私权。
3)模糊人类与机器之间的关系。如果让ChatGPT生成非常逼真的自然语言文本,那么人类与机器之间的界限可能会变得模糊。在一些情况下,这种“技术中立”可能会引发一些伦理问题。
4)ChatGPT技术可能会引发不良行为。从某种意义上来说,聊天机器人确实具有很强的模仿能力,因为它们可以很快地识别人类的语音语调、情感和肢体语言。如果聊天机器人被用作恐吓、诽谤和其他形式的威胁,它就会成为一种可怕的力量,并对社会产生负面影响。
八问:如果人工智能会导致部分人失业,那么ChatGPT是否会取代律师个人的价值?
根据目前阶段的技术成熟度,个人认为在法律领域属于助理级,比如做一些案例检索、图表制作等,不会取代律师。
首先,作为一名律师,在案件中很重要的一个工作是发现并准确的归纳出争议焦点,找到案件的症结点,这是专业性较强的工作。其次,案件的客观事实具有复杂性,每个案件之间细小不同就可能导致完全不同的结果,而这些不同往往隐藏在一些细节中,非常容易被忽略,这依赖于律师通过实地考察、阅卷、调查等方式来发现。虽然法律知识的积淀固然重要,而如何厘清事实,如何收集证据,如何在复杂的法律体系中选择正确的法律依据,如何在纷繁的法律事实中确定真正的焦点,这就使得律师能够从容面对不同时间、不同地区、不同案件的差异性,构建正确的推理链条并寻找相关的依据并去论证。因此,基于律师的工作的这些不可替代性,ChatGPT在法律领域表现或可提升,但目前仍不能完全取代律师。
九问:如何运用ChatGPT形成正向驱动,应对ChatGPT的挑战?
面对ChatGPT的冲击,正如每一次技术革命发展一样,还是要拥抱人工智能新时代,它是大势所趋,已无法停止。从个人角度,要学会利用ChatGPT并找到更具创造力的竞争优势,以便在市场中脱颖而出;从企业角度,要做好商业模式和技术路线的融合规划,通过人工智能和大数据的结合提升企业核心竞争力;从政府角度,要前瞻布局,搭建相关的法律法规和伦理框架,以保障公民隐私和社会公平。
十问:从法律角度,律师如何看ChatGPT的未来前景?
ChatGPT在法律领域的应用前景十分广阔,它可以演化成律师助手,帮助律师分析大量的法律文件和案例,为律师提供智能化的法律建议和指导,帮助其更好地完成工作。同时,ChatGPT还可以进行案例检索,通过对相关资料进行整合,更好地支持律师的工作。此外,ChatGPT还可以用于合同审核、辅助诉讼、分析法律数据等,有助于提高法律工作者的效率和准确性。
免责声明
本文内容仅为提供信息之目的由作者/锦天城律师事务所制作,不应视为广告、招揽或法律意见。阅读、传播本文内容不以建立律师-委托人关系为目的,订阅我们的文章也不构成律师-委托人关系。本文所包含的信息仅是作为一般性信息提供,作者/锦天城律师事务所不对本文做日常性维护、修改或更新,故可能未反映最新的法律发展。读者在就自身案件获得相关法域内执业律师的法律意见之前, 不要为任何目的依赖本文信息。作者/锦天城律师事务所明确不承担因基于对本文任何形式的使用(包括作为或不作为)而产生的一切责任、损失或损害。