当前位置:首页|资讯|ChatGPT|人工智能

ChatGPT有可能搅乱美国大选

作者:财富中文网发布时间:2023-04-24

预计人工智能将为那些针对选民的虚假信息提供不懈动力——但也有可能为打击这种虚假信息做出贡献。图片来源:SCOTTY PERRY—BLOOMBERG/GETTY IMAGES

2月27日,在如火如荼的芝加哥市长选举前夕,一个自称“芝加哥湖畔新闻”(Chicago Lakefront News)的推特账号发布了候选人保罗•瓦拉斯(Paul Vallas)的一张照片和一段音频。此前担任市政府预算主任和学区主管的瓦拉斯,是四位角逐芝加哥最高职位的参选人之一。根据这段音频,他似乎在刻意淡化警察枪击事件,说“在我那个时代,”一位警察在其职业生涯中可能会杀死多达18位平民,“没有人会眨一下眼睛。”这段视频继续说道:“这种‘停止为警察提供资金’的言论将导致芝加哥陷于动荡,无法无天。我们现在需要做的,不是撤销警察资金,而是重新为他们提供资金支持。”

事实证明,瓦拉斯并没有说过这些话。这段视频很快就被证伪,很可能是用某个容易访问,用于克隆声音的人工智能软件制作而成。在视频发布前几天才注册的“芝加哥湖畔新闻”很快就删除了这条推文——但在此之前,它已经被成千上万人看到并广泛转发,一些人显然上当了,相信“录音”是真实的。这段音频或许对市长选举影响甚微:瓦拉斯赢得了多数选票,并进入第二轮决选阶段,不过最终,他以微弱劣势败北。但专家们表示,这种克隆瓦拉斯声音的做法堪称一次令人惊悚的预演:拜人工智能的飞速发展所赐,2024年美国总统大选很可能会遭遇类似虚假信息的侵袭。

这些新型人工智能系统被统称为“生成式人工智能”。比如,最近大火特火的文本处理工具ChatGPT只需几个提示,就能生成学生期末论文和商业电子邮件。但它只是这种技术的一个例子而已。一家名为ElevenLabs的公司发布了一款可以利用仅仅几秒长的样本克隆声音的软件。此外,现在任何人都可以通过订购OpenAI的DALL-E 2、Stable Diffusion或Midjourney等软件生成逼真的静态图像。尽管人工智能利用文本提示创建视频的能力还处于初级阶段,比如纽约初创公司Runway开发的软件可以生成几秒钟长的视频片段,但精通深度伪造技术的骗子完全可以制作出足以乱真,让许多人上当受骗的假视频。

纽约大学(New York University)认知科学名誉教授、人工智能专家加里·马库斯(Gary Marcus)忧心忡忡地表示:“这真的令人不寒而栗,寝食难安。”他一直在警告公众,支撑这项技术的大型语言模型是民主面临的一大威胁。尽管我们已经在过去几届大选中见证过人们利用社交媒体发布和传播虚假信息的景象,但人工智能的强悍能力远非人类所能企及——正是这种以前所未有的数量和速度传播假消息的能力,以及非母语人士现在只需要敲几下键盘就可以用大多数语言写出通畅文本这一事实,使得这种新技术成为一个巨大威胁。“很难想象人工智能生成的虚假信息不会在下次大选中掀起波澜。”他说。

马库斯指出,对于像俄罗斯这样的民族国家来说,新的人工智能工具特别有用。在俄罗斯,宣传的目标与其说是说服,倒不如说是用海量谎言和半真半假的信息压制目标受众,让其无从辨伪。兰德公司(Rand Corporation)的一项研究将这种策略称为“谎言水管”。其目的是制造混乱,破坏信任,使人们更倾向于相信经由社会关系获得的信息,而不是专家分享的信息。

并不是每个人都确信,如今的情势像马库斯描述的那样惊悚——至少现在还不是。专门研究人工智能和新兴技术影响的布鲁金斯学会(Brookings Institution)研究员克里斯·梅瑟罗尔(Chris Meserole)指出,最近几届总统选举已经出现了非常高水平的人造虚假信息,他不确定新的人工智能语言模型会带来显著变化。“我认为这不会彻底改变游戏规则,2024年预计不会跟2020年或2016年有明显不同。”他说。

梅瑟罗尔还认为,视频深度伪造技术还不足以搅乱2024年大选(尽管他认为,2028年的情况恐怕会有所不同)。真正让梅瑟罗尔担忧的是语音克隆。他指出,一个很容易想象的场景是,一段音频在选举的关键时刻浮出水面,它记录的据称是候选人在私下场合发表的可耻言论。尽管在场人士可能会否认音频的真实性,但外人恐怕很难确定。

那么,虚假叙事究竟是会说服任何人,还是只会强化一些人的现有信念?牛津互联网研究所(Oxford Internet Institute)的技术与监管教授桑德拉·瓦赫特(Sandra Wachter)表示,相关研究给出了相互矛盾的结论。但在一场势均力敌的选举中,即便是这种边际效应也可能是决定性的。

面对机器生成式假新闻的威胁,一些人认为人工智能本身可能是最好的防御手段。在西班牙,一家名为Newtral,专门对政客言论进行事实核查的公司,正在试验类似于ChatGPT的大型语言模型。首席技术官鲁本·米格斯·佩雷斯(Ruben Miguez Perez)表示,这些模型不能真正验证事实,但可以帮助人们更好地揭穿谎言。这种技术能够在一段内容做出值得核查的事实声明时进行标记,还能检测其他宣扬相同叙事的内容,这一过程称为“声明匹配”。与其他机器学习技术结合使用,这些大型语言模型也有望根据内容蕴含的情绪来评估某种说法是错误信息的可能性。米格斯·佩雷斯指出,借助这些方法,Newtral已经将识别可疑陈述所耗费的时间减少了70%到80%。

大型社交媒体平台,比如脸书(Facebook)和谷歌(Google)旗下的YouTube,一直在研究具备类似功能的人工智能系统。Facebook的母公司Meta表示,在2020年总统大选前夕,这家社交平台为超过1.8亿条被第三方事实核查员揭穿的内容贴上了警告标识。尽管如此,仍然有大量虚假信息蒙混过关。事实上,人工智能模型尤其难以捕捉那些借助图像和文本来传递观点的“表情包”。Meta宣称,自2020年大选以来,其人工智能系统获得了长足进步,但虚假叙事散布者正在持续不断地设计一批批人工智能模型从未见过的新变体。

马库斯指出,合理的监管或许能发挥一定作用:政府应该要求大型语言模型的创建者刻上“数字水印”,从而让其他算法更容易识别人工智能生成的内容。作为ChatGPT的创建者,OpenAI确实谈过这种水印,但尚未付诸实施。与此同时,该公司还发布了免费的人工智能内容检测软件,但这种软件只在大约三分之一的情况下有效。马库斯还表示,国会应该将大规模制造和传播虚假信息定为非法行为。尽管第一修正案的支持者可能会高声反对,但宪法的制定者无论如何都想象不到未来有一天,人们只需按一下按钮,就能利用技术生成无数令人信服的谎言。

话说回来,美利坚建国之时,即18世纪末期,也是一个传播虚假信息的黄金时代。层出不穷的匿名传单和党派报纸肆无忌惮地兜售政敌和对立党派的卑鄙故事。牛津大学的瓦赫特指出,民主在那时得以幸存。也许这一次也会如此。但我们很可能会见证一场史无前例的选举活动。(财富中文网)

译者:任文科


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1