5 月底,OpenAI 做了一件它从未做过的事情。它没有发布更强大的语言模型,也没有宣布新的训练数据合作伙伴关系,而是发布了一份报告,披露了不良行为者滥用其产品来开展政治影响力(政治外宣)行动。
OpenAI 发现了五个秘密政治外宣网络,创建者来自俄罗斯、伊朗和以色列等国家。
他们使用其生成式人工智能工具开展欺骗性外宣,包括用多种语言创建大量社交媒体评论,以及将新闻文章转化为 Facebook 帖子。
OpenAI 指出,使用这些工具似乎是为了提高宣传内容的产出质量和数量。人工智能也同时提高了这些人和组织的生产力。
(来源:STEPHANIE ARNETT/MIT TECHNOLOGY REVIEW | GETTY)
首先,OpenAI 应该因发布这份报告及其创下的先河而受到赞扬。研究人员长期以来一直认为恶意行为者会滥用生成式人工智能技术,尤其是大型语言模型,以更低的成本扩大其工作的规模和水平。
这种现象已经开始出现,OpenAI 已将检测和封禁可疑账号作为优先事项,以减轻其影响。这一透明披露表明,至少有一家大型人工智能公司从 2016 年美国大选后的社交媒体困境中吸取了教训。
2016 年的美国大选被广泛认为受到了外部干预,社交媒体平台是重灾区。当这种滥用社交媒体的行为被发现时,Facebook、YouTube 和推特(X)成立了诚信团队,并开始定期披露其平台上的外宣行动。
不过,在埃隆·马斯克(Elon Musk)收购推特后,该公司停止了这一活动。
事实上,OpenAI 的披露让人很容易联想到 Meta 前一天发布的报告。Meta 的 2024 年第一季度透明度报告披露了其平台上的六项秘密行动。这些行动的关联账号已被 Meta 封禁。
Meta 也发现了与伊朗、俄罗斯和以色列有关的外宣网络,并指出了他们使用的人工智能生成内容。例如,一家总部位于以色列的政治宣传公司发布了可能是人工智能生成的评论。
Meta 的报告还指出,一个俄罗斯账号非常活跃,而且它的策略正在不断发展。
或许最重要的是,Meta 直接提出了一套“加强行业响应的建议”,呼吁政府、研究人员和其他科技公司合作分享威胁情报,以帮助破坏正在进行的宣传活动。
作为这篇文章的作者,我们就是从事相关工作的两名研究人员,多年来一直在研究在线影响力(网络外宣)活动。
我们(有时与平台合作)发表了关于有组织的外宣活动的调查报告,并分析了人工智能工具如何影响宣传活动的开展方式。我们团队的研究发现,语言模型生成的文本,几乎与人类撰写的外宣文本一样有说服力。
我们看到,外宣行动继续在每个社交平台上激增,并关注着世界上的每个地区。
被美国视为对手的国家和唯利是图的公关公司被社交媒体平台及其提供的覆盖范围所吸引。开展这样的外宣活动几乎没有什么坏处,尤其是在今年这样的重大全球选举年。
而现在,外宣组织显然正在使用人工智能技术,这可能会使这种活动更难被发现。媒体正在大肆报道“人工智能影响选举”,许多监管机构也因此感到恐慌。
不过,我们必须正确看待这一点。OpenAI 和 Meta 披露的大多数政治外宣活动都没有造成太大影响,两家公司都在报告中反复强调这一点。
必须重申的是,这件事的存在和影响不是一回事。虚假账号或主页的存在并不意味着有真人在关注它们。
同样,仅仅因为一场外宣活动使用了人工智能,并不意味着它就能左右舆论。
生成式人工智能降低了开展外宣活动的成本,使制作内容和运行交互式自动回复账号的成本大大降低。
但它并不是万能的,在 OpenAI 披露的案例中,人工智能工具生成的内容有时似乎相当糟糕,没有人会相信。
毕竟,制作内容只是政治宣传活动的第一步。即使是人工智能生成的质量最高的帖子、图片和音频也需要分发渠道。没有算法放大或意见领袖(网红)背书的活动往往只会被淹没在无数的推文中。
事实上,只有持之以恒的真实意见领袖(那些能吸引大量受众转发其帖子的人)才能引发大规模参与并推动公众对话,帮助宣传内容和叙事传播开来。
这就是为什么一些资源更丰富的国家或组织会偷偷雇佣这些意见领袖。目前来看,有影响力的真实账号比人工智能驱动的假账号具有更大的影响力。
尽管如此,人们仍然非常担心人工智能可能会扰乱美国政治并成为国家安全威胁。最重要的是,我们要“准确评估”这种威胁,特别是在选举年。
夸大虚假政治宣传活动的影响可能会破坏人们对选举的信任和对民主的信念,因为这会让选民认为每个帖子背后都隐藏着恶意,或者是有某些恶意行为者针对特定候选人,“导致”了他们的失败,而失败的真实原因很可能只是竞选活动太差劲了。
OpenAI 在其第一份报告中将影响评估放在了最核心的位置,这显然是在冒着夸大威胁的风险。然而,淡化威胁或不组建诚信团队,让网络喷子(或虚假账号)继续增加粉丝并提高传播能力,也是一种糟糕的做法。
事实上,Meta 的报告指出,它摧毁的一个网络似乎与孟加拉国的一个政党有关,针对的是孟加拉国公众。该网络在 98 个主页上积累了 340 万粉丝。
由于该网络不是由美国人感兴趣的对手运营的,因此可能不会引起太多关注。不过,这个例子凸显了一个事实,即威胁是全球性的,关键是提高警惕。平台必须继续优先考虑威胁检测。
那么我们应该怎么做呢?Meta 在报告中呼吁公司共享威胁并开展合作。尽管它的呼吁只是针对俄罗斯的,但这也为社交媒体平台、人工智能公司和学术研究人员指明了一条更广阔的前进道路。
此外,透明度也至关重要。作为外部研究人员,我们只能从社交媒体公司披露的报告中了解到有限的信息。
对于公众和政策制定者来说也是如此,但我们不应该只听信强大的平台的一面之词。确保研究人员能够访问有关虚假账号网络的数据,为外部验证(或反驳)科技公司的说法提供了机会。
在马斯克接管 X 之前,该公司会定期向研究人员和公众发布数据集,包括有国家背景的虚假账号,以及他们发布的帖子。
Meta 在移除网络之前会与外部合作伙伴共享数据,最近,它开始启用了 Influence Operations Research Archive 档案数据库。
虽然研究人员应该继续争取获得更多的数据,但这些努力已经让人们对政治宣传叙述和行为有了更深入的了解,超出了平台发布的透明度报告所提供的范围。
OpenAI 的报告应该是未来更大规模数据共享的前奏。在人工智能方面,独立研究人员已开始收集滥用数据库,如人工智能事故数据库和政治深度伪造事件数据库,以便研究人员比较不同类型的滥用并跟踪滥用随时间的变化。
但从外部检测滥用通常很困难。随着人工智能工具变得越来越强大和普及,监管层面的政策制定者必须了解它们是如何被使用和滥用的。
虽然 OpenAI 的第一份报告提供了摘要和案例,但扩大与研究人员的数据共享关系以更清楚地了解宣传内容或行为是很重要的下一步。
在打击宣传行动和滥用人工智能方面,用户也应发挥作用。毕竟,只有当人们看到、相信并进一步分享时,这些内容才会产生影响。
在 OpenAI 披露的一个案例中,网民识破了使用人工智能生成文本的虚假账号。
在我们自己的研究中,我们看到 Facebook 用户社区主动指出垃圾邮件发送者和骗子用人工智能生成的图像内容,以防那些不太了解该技术的人上当受骗。
适度的怀疑态度越来越有用。我们需要停下来检查内容是否真实,人们是否是他们声称的人,并帮助朋友和家人更多地了解人工智能生成内容的日益普及,帮助社交媒体用户抵制政治宣传和骗子的欺骗。
OpenAI 在发布报告的博文中简洁地指出:“恶意行为者在网上无处不在。”
我们也必须做到这样。随着我们进入人工智能驱动的影响力行动的新时代,如果我们希望开发更具弹性的数字生态系统,就必须通过透明度、数据共享和共同保持警惕来应对这个共同的挑战。
作者简介:乔希·A·戈德斯坦(Josh A. Goldstein)是美国乔治城大学安全与新兴技术中心的研究员,负责 CyberAI 项目。蕾妮·迪雷斯塔(Renée DiResta)是斯坦福互联网观察站的研究经理,也是《隐形的统治者:将谎言变成现实的人》(Invisible Rulers: The People Who Turn Lies into Reality)一书的作者。
支持:Ren
排版:刘雅坤