封面新闻记者 边雪 马晓玉
在横空出世的Sora还在用60秒的AI视频震惊世人眼球时,科技圈已经开始警惕起来了。
当地时间2月16日,包括Adobe、Amazon、AnthroPIC、Google、Meta、Microsoft、OpenAI、TikTok和X在内的20家科技公司签署了一份承诺协议,以帮助防止虚假的人工智能内容扰乱2024年的全球选举投票。
Sora生成视频画面。(图源:网络)
这份协议签署于德国举行的慕尼黑安全会议(MSC),其中包括两家公司承诺在人工智能检测工具和其他行动方面展开合作,但没有呼吁禁止与选举有关的人工智能内容。
Anthrophic公司周五还表示,将禁止其技术应用于政治活动或游说。在一篇博客文章中,该公司表示,将警告或暂停任何违反其规则的用户。该公司制造了一个名为克劳德的聊天机器人:“它正在使用经过训练的工具,来自动检测和阻止甚至改变错误信息的影响。”
Sora新兴技术带来的社会影响,AI治理应该采用什么样的态度?2月19日,西南科技大学计算机科学与技术学院杨春明副教授在接受封面新闻记者采访时表示,智能技术发展的目标是为人类解决繁杂的体力劳动,AI技术的发展应该以人类的需求为目标。
误导民众 人工智能如何干预大选?
2024年对于人工智能和政治都是具有潜在颠覆性影响的一年,特别是当人工智能与选举重叠时,局面似乎变得更加难以预测。
据统计,今年全球5大洲将有超过70个国家和地区举行地区、立法或总统、总理选举,涵盖美国、俄罗斯、欧盟、日本、印度等多个国家和地区,覆盖近42亿人口。与此同时,美国中央情报局和国土安全部均发布警告称,俄罗斯和伊朗等对手国家正在使用生成式人工智能来攻击美国的选举基础设施和流程。人工智能已经成为美国大选前最受关注的政治和社会问题之一。
“在我那个时代,如果一名警察杀死17或18人,也不会有人给予什么关注”。2023年2月份芝加哥市四人初选前,一条关于芝加哥市长候选人保罗·瓦拉斯(Paul Vallas)的发言视频在网络上迅速走红,但最后证明,该视频是生成式人工智能的产物。虽然后面被澄清,但是它对选民心理的影响已经造成,并且难以评估。
Sora生成视频画面。(图源:X 账号@Gabor Cselle)
技术所造成的网络安全问题一直以来都是政治活动的严重隐患。其中最著名的就是2016年美国大选民主党全国委员会黑客事件,该黑客事件旨在破坏希拉里·克林顿 (Hillary Clinton) 的总统竞选活动,并在选举中制造不信任感。技术的使用自始至终都是各候选人团队的重要工具:2016年剑桥分析公司获取数百万Facebook用户的个人数据,对此展开分析并根据分析的结果为2016年泰德·克鲁兹和唐纳德·特朗普的总统竞选活动提供政治广告帮助。
2022年,基于大模型、大数据的生成式人工智能工具首次向公众开放,而这之后的发展更可能使在政治活动、虚假信息、数据安全互相作用下的政治选举的结果失去客观性,阿根廷是总统竞选中人工智能武器化的第一个案例。
据《纽约时报》报道,2022年11月,阿根廷右翼自由主义者哈维尔·米雷 (Javier Milei)在总统竞选中大量使用人工智能工具,利用X(Twitter)等平台最终以300万票的大优势获胜。
深度伪造的图像、音频和视频可能会促使围绕虚假丑闻或人为故障的病毒式传播,进一步扭曲国家在选举期间的公民对话:通过在网络空间中散布数百万个帖子,恶意行为者可以使用语言模型来制造政治协议的假象,或者造成人们普遍相信不诚实的选举叙事的错误印象。
影响力活动可以部署量身定制的聊天机器人,根据选民特征定制互动,实时调整操纵策略以增加其说服力,可以使用人工智能工具向选举办公室发送一波来自虚假“选民”的欺骗性评论,正如一位在2019年使用ChatGPT的前身技术欺骗爱达荷州官员的研究人员所显示的那样。聊天机器人和深度伪造音频还可能通过个性化、令人信服且可能比我们过去看到的更有效的网络钓鱼活动来加剧对选举系统的威胁。
如何确保“AI”在选举的“决策环”中?
未来,不同类型的人工智能工具将在选举中留下不同的足迹,以各种方式威胁民主,如何保证选举结果以民意而非AI干预,成为各国重点讨论的核心问题。
2024年1月,OpenAI就曾表示,它正在努力防止旗下产品在选举中被滥用,方法之一是禁止使用它们来创建伪装成真人或机构的聊天机器人。最近几周,谷歌还表示,“出于高度谨慎”,将限制其人工智能聊天机器人巴德(Bard)对某些与选举有关的提示做出回应。而拥有Facebook和Instagram的Meta则承诺将更好地标记在其平台上生成内容,这样选民就可以更容易地辨别哪些是真实的,哪些是假的。
实际上,美国立法者已经着手开始对人工智能技术进行立法干预。2023 年颁布的每一项 AI 竞选法案都获得了一定程度的跨党派支持。截至今年1月,美国已有六个州颁布了规范生成式人工智能在活动中使用的政策。
2024年年初,威斯康星州麦迪逊的州立法者提出了一项关于在选举中使用人工智能的新要求。 一项两党法案试图通过要求候选人披露竞选广告中是否使用了任何合成媒体(例如深度伪造)来解决这些问题。参议员斯普雷策表示,到目前为止,该提案尚未收到任何反对意见。他希望该法案能够在共和党控制的立法机构通过,并在4月2日威斯康星州总统初选之前签署成为法律。
与此同时,老牌的社会媒体已经在加强自身数据安全问题管控。2023年11月,Meta 推出了一项政策,禁止广告商从2024年开始使用该公司的生成式人工智能软件在Facebook和Instagram上制作政治广告。该政策还要求广告商披露在创建真人或假人的图像、视频或音频时使用第三方人工智能软件的情况。广告商还必须披露广告中描述的事件是否是虚假的、经过篡改的或真实的但没有“真实”图像、视频或音频的。
另一方面,TikTok等较新的平台很可能会开始在政治内容中发挥更大的作用,也有部分国家政客正计划在Twitch上进行直播活动,Twitch上还将举办人工智能生成的拜登总统和前总统唐纳德·J·特朗普之间的辩论。
然而,即使官员们意识到人工智能带来的新威胁,他们应对它的能力也存在脱节。根据网络安全公司Arctic Wolf曾公布的一项调查,超过三分之一的州和地方政府领导人表示,他们的预算在某种程度上或非常不足以解决他们对即将到来的选举的网络问题。
人工智能公司一直处于开发这一变革性技术的前沿。如今,在世界各地都在举行重大选举的这一年里,他们也在竞相为人工智能的使用设定限制。
人类对AI技术的发展究竟是否可控?
在AI技术快速更新的时代,如何准确把握时代发展和社会运行特质,深刻反思并应对人工智能引发的伦理风险,做到有针对性和前瞻性地进行应对?
“利用人工智能去解决实际的问题,才能在未来是友好的。”西南科技大学计算机科学与技术学院杨春明副教授告诉封面新闻记者,智能技术发展的目标是为人类解决繁杂的体力劳动,AI技术的发展应该以人类的需求为目标。
“我们可以做一些赋能,甚至是赋予人工智能一些伦理原则,只不过现在我仍然会感到紧张,因为到目前为止,我还想象不到更智能的事物,被一些反倒没那么智能事物所控制的例子。”图灵奖得主、“深度学习之父”辛顿 (Geoffrey Hinton)认为,一旦 AI 掌握了“欺骗”技能,也就能轻易具备控制人类的能力。“超级智能控制问题非常重要。我看不出如何防止这种情况发生。我希望像你们这样年轻且才华横溢的研究人员,能弄清楚我们如何阻止这种通过欺骗实现控制的行为。”
“尽管生成式人工智能对传统民法尤其是侵权法提出了新的挑战,但是生成式人工智能引发的侵权纠纷,没有完全超出民法典和个人信息保护法的相关规定,现行法的规定仍然可以作为处理和解决纠纷的依据。”中国人民大学教授王利明表示,未来条件成熟时,还可以通过特别立法预防和处理生成式人工智能引发的各种风险,有效保障民事主体合法权益,促进人工智能产业的健康发展。