如果被AI“造谣”,该如何应对?
当地时间4月6日,澳大利亚的一名地方市长布赖恩·胡德因不满OpenAI旗下的ChatGPT诽谤他是贿赂丑闻的有罪方,将对该公司提起诉讼。一旦正式提起,这将是全球首例针对生成式AI的诽谤诉讼。
随着AIGC(人工智能生成内容)、大模型产品的广泛上线应用,相应的争议也随之而来——面对虚假信息,该把责任全部归咎AI吗?要求AI生成式内容真实准确能否做到?事实上,ChatGPT面临的质疑不止在内容的准确度上,还涉及隐私安全等问题,这些潜在的风险引起了各国监管机构的高度关注。
不久前,意大利成为首个“封禁”ChatGPT的国家,随后法国、西班牙也宣布调查ChatGPT。当地时间4月13日,欧洲数据保护委员会(EDPB)还专门设立了工作组,以促进各国协同调查。可以看到,在ChatGPT“狂飙”的同时,多国立法者和监管机构已经开始未雨绸缪,试图给ChatGPT“立规矩”。
1
“凭空造谣”的ChatGPT
在就任澳洲墨尔本西部赫本郡市长前,胡德曾在一家名为Note Printing Australia的公司工作。彼时他作为举报人,向澳大利亚监管机构揭露了公司内部向外国官员行贿以赢得货币印刷合同的情况。作为控方证人,他经历了数起法庭案件的所有过程。
可是ChatGPT混淆了这一事实。当在ChatGPT询问胡德是谁,出现的答案是胡德“被指控为在1999年至2005年期间贿赂马来西亚、印度尼西亚和越南的官员,他在承认两项虚假指控后被判处30个月监禁。”
对此,胡德于3月21日向开发ChatGPT的公司OpenAI提交了一封“举报信”,要求该公司在28天内采取措施修正有关自己因贿赂入狱服刑的虚假说法,否则将准备发起诉讼。
这并不是ChatGPT第一次指鹿为马。3月底,乔治华盛顿大学教授乔纳森·特利(Jonathan Turley)收到一封同行的邮件告知,他被ChatGPT列入性骚扰名单,但事实并非如此。
这一“乌龙”是美国加州大学洛杉矶分校教授尤金·沃洛克(Eugene Volokh)使用ChatGPT做研究时发现的,当时他要求ChatGPT生成一份“对某人进行过性骚扰的法律学者”的名单,特利赫然在列。
在这起事件中,ChatGPT甚至给出错误的信息来源,称《华盛顿邮报》一篇2018年的报道指出,特利被指控在一次去阿拉斯加的旅行中对法律系学生动手动脚。可是特利从未和学生一起去过阿拉斯加,《华盛顿邮报》也从未发表过这样的文章。
如果说在这之前,人们对ChatGPT“编造论文”,或是一些“胡言乱语”也许还能一笑置之,但在这两件事上明显没那么好笑。
很显然,OpenAI也注意到内容虚假的问题,曾在公司网站发布博文上承认:“自从推出ChatGPT 以来,用户已经分享了许多他们认为有偏见、冒犯性或其他令人反感的输出。在许多情况下,我们认可了这些担忧,它们揭示了我们系统的真正局限性,我们希望解决这些问题。”
OpenAI首席执行官Sam Altman也曾表示,他对人工智能技术以及它如何影响劳动力、选举和虚假信息的传播有些“害怕”。
2
谁该为AI作假负责?
倘若胡德正式起诉Open AI,这将是全球首例针对生成式AI的诽谤诉讼,并且将带来一系列法律问题,诸如如何认定侵权行为、难点在哪、谁来为AI作假担责等等。
中国人民大学法学院教授、法语国家法制研究中心主任石佳友告诉南都·AI前哨站,在类似案件中,如果被侵权方提起诉讼,AIGC服务提供方需要对这一诽谤承担责任。人工智能作为一种科技应用,负有尊重他人人格权的义务,如果生成了虚假信息,且足以对他人的名誉造成明显的贬损评价——比如指名道姓地说别人从事一些完全没有从事的行为,这种情况下确实侵害名誉权。”
清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正则提到了责任认定的难点。他认为,即使AIGC服务提供者存在一部分责任,但由于大模型的量级巨大,其内容生产过程对于服务提供者来说可能也是某种黑箱。因此,不能将责任全部归咎于OpenAI。
他进一步指出,由于大语言模型的回应生成模式,使得有关责任认定变得更为复杂,“因为这个工具现在的问题是——即使你问同样的问题,它生成内容也可能不一样,如果你的提示词不同,所生成答案也不一样。也就是说,这不是我们通常意义上理解的,只有一个标准答案。”
此外,如何使用、谁使用了ChatGPT生成的答案,对案件的责任认定也有影响。梁正认为,如果是在较为严肃的场景,比如研究或新闻生产使用ChatGPT生成的答案时,使用者有责任对其进行核查。如果未经核查使用ChatGPT的生成内容并造成广泛负面影响,那么使用者也应当承担部分责任。
面对应用越来越广泛AIGC大模型,可以想见的是,ChatGPT不会是唯一具有使用风险的大模型,那么如何防止AI传播虚假信息?
梁正建议,工具提供方应该在技术保障上尽量做到真实,如果做不到提供完全真实的信息,就应当承担明确的责任,如在生成的内容中进行明确标识。与此同时,工具的使用者也应对生成内容进行核查。
3
ChatGPT的安全隐忧
自面世以来,ChatGPT一路“狂飙”引发科技圈的狂欢,但伴随而来的风险不容忽视。除了被指“作假”外,ChatGPT也面临隐私和数据安全方面的隐忧,正在引起各国的高度关注。
率先出手的是意大利。今年3月31日,意大利宣布“封禁”ChatGPT。近期,意大利“松口”——若OpenAI公司想在4月底前恢复上线这一对话机器人需要采取一系列措施,包括告知处理数据的方法逻辑、上线年龄验证系统、更正或删除不准确的个人数据信息等。
继意大利之后,欧洲多国监管机构也跟进考虑对AI采取更严格的监管措施。这几天,西班牙、法国接连出手,宣布对ChatGPT展开调查。
当地时间4月11日,西班牙数据保护局表示,ChatGPT的全球运作模式会对个人权利产生重大影响,这需要欧洲层面协调决定。现已向欧洲数据保护委员会(EDPB)提出建议,将ChatGPT问题纳入下一次全体会议的讨论范畴,以便欧盟成员国可以在GDPR的适用框架下实施协调一致的行动。
法国数据监管机构CNIL也透露,目前正在调查有关ChatGPT的几起投诉。当地时间4月13日,欧洲数据保护委员会(EDPB)宣布成立专门的工作组,以帮助各国应对ChatGPT有关的隐私问题。
有研究人工智能学者告诉AI·前哨站,在新一代以ChatGPT为代表的生成合成类应用中,用户对话的过程就是被收集信息的过程,尤其是用户在与机器对话的过程中更可能袒露隐私。这些个人信息可被用于用户画像和训练模型,个人信息的收集、使用和传输都面临着安全挑战。
为回应这些安全质疑,OpenAI在美国当地4月5日发布了一份声明,强调致力于确保AI的安全性,并明确尊重隐私、提高事实准确性、儿童保护等多方面的举措。比如OpenAI将对被用户标记为不正确的输出数据作出反馈;通过微调模型以排除收集个人信息,并回应用户删除个人信息的请求等。
现阶段,OpenAI的这些承诺或许还很难平息质疑。面对ChatGPT带来的种种隐忧,多国立法者和监管机构正在试图给ChatGPT“立规矩”。
随着ChatGPT的爆火,今年人工智能技术发展和规范成为全球聚焦的热点。南都·AI前哨站发现,近期国产ChatGPT密集上线,包括阿里、百度在内的中国科技企业先后推出各自的大模型。这波浪潮之下,中国的监管机构也开始着手规范生成式人工智能服务。
4月11日,网信办发布的《生成式人工智能服务管理办法(征求意见稿)》,其中规定利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息;防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。
而随着AI时代来临,如何预防技术失控“狂飙”?又该如何治理以保障人工智能的安全性?这是人们无法绕开的课题。
出品:南都人工智能研究课题组
采写:南都记者胡耕硕