对于ChatGPT展现的“超能力”,不少人对技术发展感到振奋的同时,也对人工智能内容生产及其背后的道德伦理、社会责任和法律风险存在一丝担忧。本文将从算法、数据和内容三个层面,详述ChatGPT背后的法律风险和合规建议。
2022年底,美国科技初创公司OpenAI发布的智能聊天工具ChatGPT一夜火爆。与过去一些AI聊天机器人对话时明显的机械感或内容复制粘贴感相比,ChatGPT给出的答复往往逻辑清晰,切中要点,并能与用户进行自然流畅的对话。出于对AI技术究竟发展到何程度的好奇,各行各业的人都开始用ChatGPT进行花式测评,从写代码到做高考数学题,从翻译学术论文到写命题小作文。而ChatGPT的完成度也确实令人感慨,过去仅能由人类完成的创造性工作,一定程度上可以由ChatGPT取代,完成相应内容生产。
ChatGPT的出现,也掀起了人工智能内容生产赛道(Artificial Intelligence Generated Content)的热潮。微软已正式将ChatGPT技术接入必应搜索和Edge浏览器。百度(中国)有限公司也表示,将在今年3月完成类似ChatGPT的项目“文心一言”(ERNIE Bot)的内部测试后向公众开放。
对于ChatGPT展现的“超能力”,不少人对技术发展感到振奋的同时,也对人工智能内容生产及其背后的道德伦理、社会责任和法律风险存在一丝担忧。本文将从算法、数据和内容三个层面,详述ChatGPT背后的法律风险和合规建议。
ChatGPT的技术原理是在算法和数据基础上,利用自然语言处理生成相应回答。具体来说,ChatGPT使用了基于人类偏好的强化学习的机器训练模型(Reinforcement Learning from Human Feedback),由技术人员预先给ChatGPT输入海量语言数据,并根据人工标注的高质量回答对ChatGPT生成的回答建立打分和奖励模型,引导训练ChatGPT模型对输出结果不断进行校正和优化,并向高分方向完善输出答案,最终使得ChatGPT能够学习人类语言的特征和结构,实现用自然语言进行人机交流。
当前,ChatGPT被认为能够处理多种相对复杂的语言类工作,包括自动文本生成、自动问答、延续上下文的连续对话等,并被尝试用于新闻、营销、客服等行业领域。但是,人工智能内容生产并不能保证其内容的准确性,ChatGPT也在用户协议中对此做出了免责声明。比起ChatGPT输出一些“正确的废话”,其“一本正经地胡说八道”带来的危害更是令各国监管机构都十分警觉。
今年1月,OpenAI首席技术官米拉·穆拉蒂(Mira Murati)表示,ChatGPT可能会被“危险分子”使用于编造事实,这是当下大型语言模型共同面临的挑战。
一方面,在法律、医学等专业领域,用户需要一定的专业知识才能辨别ChatGPT生成内容的真假。如有用户依赖不准确的答案做出判断和决策,可能会危害用户的人身和财产安全。
另一方面,不排除一些别有用心的不法分子,通过向ChatGPT输入虚假或误导性的信息来“训练”其产生虚假信息,严重者可能导致影响政治舆论或政治生态、煽动暴力和犯罪等破坏公共利益等严重后果。
我国出台的《互联网信息服务深度合成管理规定》,也是旨在应对深度合成技术给法律、社会秩序、公共安全带来的冲击。根据《互联网信息服务深度合成管理规定》给出的定义,深度合成技术是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术,其中包括篇章生成、文本风格转换、问答对话等生成或者编辑文本内容的技术。ChatGPT这类人工智能内容生产产品,显然应受该法的规制。
按照《互联网信息服务深度合成管理规定》要求,深度合成服务提供者应当落实信息安全主体责任,建立健全用户注册、算法机制机理审核、科技伦理审查、信息发布审核、数据安全、个人信息保护、反电信网络诈骗、应急处置等管理制度。
首先,深度合成服务提供者应当以显著方式提示深度合成服务技术支持者和使用者承担信息安全义务。对于使用其服务生成的可能导致公众混淆或者误认的信息内容,应当在该信息内容的合理位置、区域进行显著标识,向公众提示该内容为深度合成,并在生成疑似违法信息时提示用户存在虚假信息的安全风险。
其次,深度合成服务提供者应当加强深度合成内容管理,建立健全用于识别违法和不良信息的特征库,采取技术或者人工方式对深度合成服务使用者的输入数据和合成结果进行审核。如果发现用户利用深度合成服务制作、复制、发布、传播虚假信息的,应当及时采取辟谣措施,保存有关记录,并向网信部门和有关主管部门报告。
与此同时,对发布违法和不良信息的相关深度合成服务使用者,要依法依约采取警示、限制功能、暂停服务、关闭账号等处置措施。
除了《互联网信息服务深度合成管理规定》,ChatGPT等人工智能内容生产产品也受《互联网信息服务算法推荐管理规定》规制。《互联网信息服务算法推荐管理规定》中所称算法推荐技术,就包括利用生成合成类算法技术向用户提供信息。该法规的要点,是防止出现算法歧视或算法偏见,生成负面有害信息或低俗劣质信息等不符合主流价值导向的内容。
根据《互联网信息服务算法推荐管理规定》第七条规定,算法推荐服务提供者应当建立健全算法机制机理审核、科技伦理审查、用户注册、信息发布审核、数据安全和个人信息保护、反电信网络诈骗、安全评估监测、安全事件应急处置等管理制度和技术措施。
具体来讲,算法服务提供者应当定期审核、评估、验证算法机制机理、模型、数据和应用结果,确保算法模型不违背伦理道德。在此基础上,算法服务提供者同样应以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。
此外,如果是具有舆论属性或者社会动员能力的产品,算法推荐服务提供者应当在提供服务之日起十个工作日内通过互联网信息服务算法备案系统填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息,履行备案手续。
以ChatGPT为例,尽管OpenAI在官网上声明,ChatGPT已通过算法设置和训练,能在一定程度上拒绝用户不合理的请求,例如生成可能包含种族歧视或性别歧视、暴力、血腥、色情等违反法律以及公序良俗的内容。但事实上,这样的违法信息传播风险仍然存在,其引发的法律责任和社会舆论,可能会对公司形象及商誉产生负面影响。
三年前在韩国十分火爆的人工智能聊天机器人Lee Luda,由于一些用户在对话交互时,故意输入污秽和暴力言语,导致Lee Luda在接收这些不符合主流价值观的内容后,开始输出一些涉嫌性别歧视、种族歧视、对弱势群体的歧视的内容,该产品因此广为诟病而于上线不到一个月就中断了服务。
ChatGPT的前期训练、后期迭代和强化学习都需要海量的数据,最新开放版本GPT-3.5预训练数据量已达到45TB,其中就包括北京智源人工智能研究院建构的中文语料库WuDaoCorpora中约3TB的中文语料。
《互联网信息服务算法推荐管理规定》第十四条明确规定,深度合成服务提供者和技术支持者应当加强训练数据管理,采取必要措施保障训练数据安全;训练数据包含个人信息的,应当遵守个人信息保护的有关规定。
我国《个人信息保护法》明确了处理个人信息应当遵循的公开原则、诚信原则和最小限度原则,即个人信息处理者应当公开个人信息处理规则,明示处理的目的、方式和范围,不得过度收集个人信息,不得通过误导、欺诈、胁迫等方式处理个人信息。以ChatGPT为例, OpenAI公司为模型训练而收集或处理个人信息的,还需要取得用户个人的同意。
在OpenAI公司就ChatGPT使用常见问题的答复中,OpenAI明确承认,用户与ChatGPT的对话数据,将会被用于ChatGPT的迭代模型训练。并且,OpenAI特别提示,OpenAI暂时无法从输入历史中删除特定某条内容;如果想要删除数据,必须以注销此OpenAI账号的方式,而该账号所有的相关数据会被一起删除,故用户不要在使用ChatGPT时输入敏感信息或机密内容。
因此,在类似ChatGPT的人工智能内容生产产品开发和后期升级过程中,尽可能使用公开的非个人信息,或对收集的个人信息进行匿名化的处理。如果必须要使用个人信息,应当明确向用户告知并取得其个人同意,避免违法使用个人信息造成的侵权或损害。
本文来自微信公众号“元宇宙NEWS”(ID:Blockchain_Daily),作者:赵志东 蔡佳雯,36氪经授权发布。