无论是获得烹饪建议还是帮助演讲,ChatGPT已经成为许多人玩转人工智能(AI)系统的第一次机会。
ChatGPT是基于一种先进的语言处理技术,由OpenAI开发。
人工智能(AI)使用互联网上的文本数据库进行训练,包括书籍、杂志和维基百科条目。总共有3000亿字被输入系统。
最终的结果是一个聊天机器人,它看起来很像人类,但却拥有百科全书式的知识。
告诉ChatGPT你的厨柜里有什么,它就会给你一个食谱。需要为一个大型演讲做一个简短的介绍?没问题。
但它是否太好?它对人类反应的令人信服的逼近,对于那些不怀好意的人来说,可能是一个强有力的工具。
学术界、网络安全研究人员和人工智能专家警告说,ChatGPT可能被不良分子用来在社交媒体上散播异议和传播宣传。
到目前为止,传播错误信息需要大量的人力劳动。但根据乔治敦大学、斯坦福大学互联网观察站和OpenAI在1月发表的一份报告,像ChatGPT这样的人工智能将使所谓的巨魔军队更容易扩大其行动。
像ChatGPT这样先进的语言处理系统可能会影响到社交媒体上的所谓影响行动。
这类活动试图转移批评,并以积极的方式塑造一个执政的政党或政治家,他们也可以倡导或反对政策。他们还利用虚假账户在社交媒体上传播错误信息。
在2016年美国大选前夕,就发起了这样一场运动。
参议院情报委员会在2019年得出的结论是,由总部设在圣彼得堡的互联网研究机构创建的数千个推特、脸书、Instagram和YouTube账户专注于损害希拉里-克林顿的竞选并支持唐纳德-特朗普。
但未来的选举可能不得不应对更加巨大的错误信息洪流。
1月发布的人工智能报告说:"语言模型有可能以低成本与人类编写的内容相媲美,这表明这些模型与任何强大的技术一样,可能为选择使用它们的宣传者提供明显的优势,"
报告警告说:这些优势可以扩大对更多行为者的接触,使新的影响策略成为可能,并使竞选活动的信息传递更有针对性和潜在的有效性。
可能上升的不仅是错误信息的数量,还有质量。
人工智能系统可以提高内容的说服力,并使普通互联网用户难以识别这些信息是协调的虚假信息活动的一部分,该文件的共同作者、乔治敦大学安全和新兴技术中心的研究员乔希-戈德斯坦说,他在该中心从事网络AI项目的工作。
"他说:"生成性语言模型可以产生大量的内容,每次都是原创的......并允许每个宣传者不依靠在社交媒体账户或新闻网站上复制和粘贴相同的文本。
戈尔茨坦先生继续说,如果一个平台充斥着不真实的信息或宣传,它将使公众更难辨别什么是真实的。通常,这可能是那些参与影响力行动的不良行为者的目的。
他的报告还指出,对这些系统的访问可能不会只停留在少数组织的领域。
"现在,少数公司或政府拥有顶级的语言模型,这些模型在它们能够可靠地执行的任务和输出的语言方面是有限的。
"他的报告说:"如果更多的行为者投资于最先进的生成模型,那么这可能会增加宣传者获得这些模型的几率。
人工智能专家、2016年被Uber收购的人工智能公司Geometric Intelligence的创始人加里-马库斯(Gary Marcus)说,邪恶的团体可能会把人工智能编写的内容视为类似于垃圾邮件。
"四处传播垃圾邮件的人依靠最容易受骗的人点击他们的链接,使用这种喷洒和祈祷的方法,尽可能多地接触到人们。但有了人工智能,那把水枪就可以成为最大的超级喷水器。"
此外,即使像Twitter和Facebook这样的平台拿下了那些肇事者在其网络上传播的四分之三的内容,"仍然有至少10倍于以前的内容可以旨在误导人们上网",马库斯先生说。
虚假社交媒体账户的激增成为Twitter和Facebook的眼中钉,而今天语言模型系统的迅速成熟,只会让这些平台挤满更多的虚假资料。
卡内基梅隆大学计算机科学教授文森特-科尼策说:"像ChatGPT这样的东西可以在我们以前没有见过的水平上扩大虚假账户的传播,""而且会变得更难区分这些账户和人类。"
戈尔茨坦先生共同撰写的1月20日的论文和安全公司WithSecure Intelligence的一份类似报告都警告说,生成语言模型可以快速有效地创建假新闻文章,这些文章可以在社交媒体上传播,进一步增加虚假叙述的洪水,在决定性的选举前影响选民。
但是,如果错误信息和假新闻因为Chat-GPT这样的人工智能系统而成为更大的威胁,社交媒体平台是否应该尽可能地积极主动?一些专家认为,他们会对任何这类帖子执行不严。
"西北大学复杂系统研究所的联合主任Luís A Nunes Amaral说:"Facebook和其他平台应该标记虚假内容,但Facebook一直没有通过这一测试,令人震惊。
"这种不作为的原因包括监测每一个帖子的费用,也意识到这些假帖子是为了激怒和分裂人们,从而推动参与。这对Facebook是有利的"。