作者 肖飒 北京大成律师事务所合伙人
2023开年之初,全球科技巨头微软的巨额投资让ChatGPT成为科技领域的“顶流”,并成功出圈。我们作为法律工作者,不禁要评估ChatGPT自身在实际运用中可能会带来的法律安全风险。
事实上,ChatGPT似乎远没有部分消息宣传的那样“神”——其仅仅是Transformer和GPT等自然语言处理技术的集成,本质上依然是一个基于神经网络的语言模型,而非一项“跨时代的AI进步”。
第一,人工智能在中国整体监管仍有待完善。
和许多新兴技术一样,ChatGPT所代表的自然语言处理技术也面临着“科林格里奇窘境”(Collingridge dilemma),即信息困境与控制困境。
所谓信息困境,即一项新兴技术所带来的社会后果不能在该技术的早期被预料到;所谓控制困境,即当一项新兴技术所带来的不利社会后果被发现时,技术往往已成为整个社会和经济结构的一部分,致使不利的社会后果无法被有效控制。
在人工智能领域,尤其是自然语言处理技术领域的快速发展阶段,该技术很可能会陷入“科林格里奇窘境”,而与此相对应的法律监管似乎并未“跟得上步伐”。
目前,中国尚无国家层面的人工智能产业立法,但深圳、上海等城市已有相关立法尝试。相信未来各地均会出台类似的人工智能产业立法。
在人工智能的伦理规制方面,国家新一代人工智能治理专业委员会亦在2021年发布了《新一代人工智能伦理规范》,提出将伦理道德融入人工智能研发和应用的全生命周期。
第二,ChatGPT带来的虚假信息存在法律风险问题。
ChatGPT等AI聊天基础存在的现实合规问题也急需重视。ChatGPT基于AI背后已有的自然语言文本信息(语料库)进行概率统计,返回的答案也是“统计结果”,这就导致ChatGPT在许多问题上会“一本正经的胡说八道”,这种看似真实、实则离谱的虚假信息具有一定误导性。
倘若ChatGPT应用到搜索引擎、客户投诉系统等领域,其回复的虚假信息可能造成严重的法律风险。
实际上,这样的法律风险已出现,2022年11月,几乎与ChatGPT同一时间上线的Meta服务科研领域的语言模型Galactica,就因为真假答案混杂的问题,测试仅3天就被用户投诉下线。
在技术原理无法短期突破前提下,ChatGPT及类似语言模型要应用到搜索引擎、客户投诉系统等领域,就必须对其进行合规性改造,以最大程度降低相应的合规风险。
第三,ChatGPT会带来知识产权的合规问题。
聊天AI,尤其是像ChatGPT这样的大型语言模型知识产权问题应引起合规人员注意。
第一个合规难题是“文本数据挖掘”是否需要相应知识产权授权问题。正如前文所指,ChatGPT依靠巨量自然语言本文(或言语料库)运转,其需要将语料库中内容复制到自有数据库中,相应行为通常在自然语言处理领域被称为“文本数据挖掘”。当相应文本数据可能构成作品前提下,文本数据挖掘行为是否侵犯复制权,当前仍存在一定争议。
目前,中国著作权法并未将AI中的“文本数据挖掘”纳入到合理适用范围内,文本数据挖掘在中国依然需要相应知识产权授权。
第二个合规难题是ChatGPT产生的答复是否具有独创性?我们认为,无论某一答复是AI完成还是人类完成,其都应当根据现有独创性标准进行判定。
此时,其实还面临另一个争议,如果AI生成答复具有独创性,那著作权人可以是AI吗?显然,包括中国在内的大部分国家知识产权法律下,作品的作者仅有可能是自然人,AI无法成为作品的作者。
第三个合规难题是ChatGPT倘若在自己的回复中拼接了第三方作品,其知识产权问题应当如何处理?
科技新知 2024-11-01
黑科技老黄 2024-11-01
雷科技 2024-11-01