《纽约时报》报道称,Anthropic、OpenAI、谷歌、Meta 和其他主要AI技术开发商正采取行动,防止该技术的发展在全球重要的大选年里干扰选举。上个月,ChatGPT 聊天机器人的制造商OpenAI 表示,正努力防止该技术在选举中被滥用,部分方法是禁止使用这些工具来创建冒充真人或机构的聊天机器人。最近几周,谷歌表示将在选举中限制其AI技术功能。Bard,宣布其聊天机器人将以“非常谨慎的态度”回应与选举有关的提示。拥有Facebook 和Instagram 的Meta 承诺在其平台上更好地标记人工智能生成的内容,以便选民可以更轻松地辨别哪些内容是真实的,哪些是虚假的。报道称,当地时间2月16日,包括Adobe、亚马逊、Anthropic、谷歌、Meta、微软、OpenAI、TikTok 和X 在内的20 家科技公司签署了一份自愿承诺,表示将共同帮助防止使用欺骗性人工智能,该协议是在慕尼黑安全会议上宣布的,其中包括两家公司在人工智能领域进行合作的承诺。这些合作包括提供检测工具和采取其他行动,但并未要求禁止与选举相关的一切人工智能。同一天,Anthrophic还单独表示,将禁止其技术应用于政治竞选或游说。该公司生产了一款名为Claude 的聊天机器人,该公司宣布,将警告或暂停任何违反其规则的用户,并声称“正使用经过培训的工具自动检测和阻止错误信息并影响操作”。该公司表示“AI应用的历史满了惊喜和意想不到的效果,我们预计2024 年人工智能将会出现令人惊讶的用途——这些用途是开发者当初所未曾预料到的”。报道称,据咨询公司Anchor Change研究,预计今年全球将举行至少83 场选举,这是至少未来24 年来最集中的选举。过去几周,巴基斯坦、印尼和台湾地区进行了投票,印度今春、美国今年11月也将举行大选。报道称,这种限制AI技术干扰选举的做法有多大成效不得而知,尤其在科技公司不断推进日益复杂技术的背景下更是如此。2月15日,OpenAI 推出了Sora,这是一项可以立即生成逼真视频的技术。这些工具可用于在政治竞选中生成文本、声音和图像,从而模糊事实与虚构,并引发选民是否能辨别哪些内容是真实的问题。人工智能生成的内容已经出现在美国的政治竞选活动中,引发了监管和法律的抵制。一些州立法者正在起草法案来规范人工智能生成的政治内容。上个月,新罕布什尔州居民收到了机器人电话信息,劝阻他们不要在州初选中投票,其声音很可能是人为生成的,听起来像拜登总统。联邦通信委员会上周宣布此类电话为非法,该委员会主席罗森沃塞尔(Jessica Rosenworcel,)表示,“不良行为者在未经请求的自动电话中使用人工智能生成的声音来勒索弱势家庭成员、模仿名人并误导选民”。报道称在阿根廷、澳大利亚、英国和加拿大,都有政客和政治话题介入AI技术。上周,巴基斯坦前总理伊姆兰.汗(Imran Khan)所属政党在选举中赢得最多席位,AI虚拟了他宣布胜利的声音,而此时他正在监狱中。报道称,专家们担心AI技术的干扰“可能对民主造成毁灭性的影响”。专门研究人工智能的华盛顿大学教授、致力于识别政治竞选中在线虚假信息的非营利组织True Media创始人埃齐奥尼(Oren Etzioni)表示,需要技术工具以实时响应这一问题。在16日的声明中,Anthropic表示,正计划进行测试,以确定其Claude 聊天机器人如何在阅读与政治候选人、政治问题和选举管理相关的内容中产生偏见或错误信息。被称作“red team”的测试通常用于突破技术的保障措施,以更好地识别其漏洞,也将探索人工智能如何回应有害的查询,例如询问选民压制策略的提示。在未来几周内,Anthropic还将推出一项试验,旨在将有投票相关查询的美国用户重定向到权威信息来源,例如来自无党派非营利组织Democracy Works 的TurboVote。该公司表示,其AI模型的训练不够频繁,无法可靠地提供有关特定选举的实时事实。同样,OpenAI上个月表示,计划通过ChatGPT 向人们引导投票信息,并为人工智能生成的图像添加标签。他们承认“与任何新技术一样,这些工具既带来好处,也带来挑战。这些技术前所未有,随着我们更多地了解我们的工具的使用方式,我们将不断改进我们的方法”。初创公司Synthesia将禁止其自动视频生成器禁止将技术用于“类似新闻的内容”,包括虚假、两极分化、分裂或误导性材料。该公司事务和政策主管沃尔卡(Alexandru Voica )表示,该公司改进了用于检测技术滥用的系统。提供图像生成工具的初创公司Stability AI表示,禁止将其技术用于非法或不道德的目的,致力于阻止不安全图像的生成,并对所有图像应用难以察觉的水印。除了16日在慕尼黑的联合承诺外,大型科技公司还单独发表了意见。上周,Meta 还表示,它正在与其他公司就技术标准进行合作,以帮助在6月欧盟选举前识别人工智能何时生成内容。TikTok 在14日表示,将禁止可能误导性的操纵内容,并要求用户给仿真性人工智能视频贴上标签。去年12月,谷歌表示,将要求YouTube 上的视频创作者和所有选举广告商披露经过数字修改或生成的内容。该公司表示,正在通过限制其人工智能来为2024 年选举做准备,以免Bard之类AI工具被用于干扰选举和误导选民。谷歌表示“和任何新兴技术一样,AI既带来了新的机遇,也带来了挑战,我们正在为如何改变错误信息的格局做好准备”。
《金融时报》报道称,在慕尼黑安全会议(Munich Security Conference)上,二十家技术公司表示,他们将在工具上“协作”,以防止AI技术被用于干扰选举和误导选民。它们承诺将在X、Facebook和LinkedIn等平台上与AI技术创制的选举“Deepfakes”作斗争。亚马逊,Google,Meta,Microsoft,Tiktok和Openai都在其中,它们承诺将共同努力,以抗击旨在误导选民的内容的创建和传播,例如“深层捕捉”图像、“deepfake”图像和音频等。根据它们所签署的自愿协议,AI的快速发展是“为民主进程创造新的机会以及挑战”,欺骗性内容的传播可能“危害选举过程的完整性”。Meta全球事务总裁克莱格(Nick Clegg)表示,今年全球有许多大选,AI技术对大选的公正性构成严重挑战,任何一家公司难以一己之力防范这种风险,这需要在行业,政府和民间社会层面做出巨大的努力。微软副主席兼总裁史密斯(Brad Smith)补充认为,公司“有责任确保这些工具不会在选举中武器化”。报道称,该协议是在各国立法者和专家日益担心AI在选举集中的今年干扰选举结果、误导选民的背景下产生的,今年美国、英国、印度等都将举行重要选举。经营主要社交媒体平台(例如Facebook,X和Tiktok)的科技公司多年来对网站上存在有害内容及其解决方案的研究一直在进行,但对生成AI工具的兴趣和可用性的爆炸激发了人们对技术如何破坏选举的担忧。今年1月,一个AI机器人模仿拜登(Joe Biden),呼吁选民不要参加新罕布什尔州党内初选投票。去年,一个据说是AI合成的政客视频片段出现在英国,印度,尼日利亚,苏丹,埃塞俄比亚和斯洛伐克网上。上述科技公司表示,将“协作”在工具上工作,以扎根于有害选举相关的AI内容在其平台上的传播,并以“迅速而相称的”方式采取行动。努力可能包括将水印添加到明确其出处的图像中,例如是否已更改。其中两家公司还承诺要透明地了解他们如何应对这种欺骗性内容,并表示将评估其生成性AI模型(例如OpenAI聊天机器人Chatgpt背后的模型),以更好地了解他们可能带来的与选举相关的风险。该协议是大型科技公司最近几个月做出的一系列自愿承诺中的最新一项。去年,包括OpenAI,Google Deepmind和Meta在内的科技公司同意由英国AI安全研究所(Britain’s AI Safety Institute.)审查其开发的生成AI模型;本月,作为加入行业倡议的一部分,谷歌表示,它正在“积极探索”它是否可以推出水印工具,以显示哪些图像是AI合成的;Meta2月表示,将“在未来几个月”开始标记用户发布到Facebook,Instagram和线程的、由AI生成的图像。
路透社报道指出,生成式人工智能(AI)可以根据提示在几秒钟内创建文本、图像和视频,其快速发展加剧了人们对这项新技术可能被用来影响今年重大选举的担忧,因为全球一半以上的人都担心这项新技术可能会被用来影响今年的重大选举。在慕尼黑安全会议上宣布的技术协议的签署方包括正在构建用于创建内容的生成式人工智能模型的公司,其中包括OpenAI、微软(MSFT.O) 和Adobe (ADBE.O),以及社交媒体平台,如Meta Platforms (META.O)、TikTok 和X(以前称为Twitter)。该协议包括承诺合作开发工具来检测人工智能生成的误导性图像、视频和音频,开展公众意识活动以教育选民了解欺骗性内容,并对其服务中的此类内容采取行动。两家公司表示,识别人工智能生成的内容或证明其来源的技术可能包括水印或嵌入元数据。该协议没有具体说明履行承诺的时间表或每家公司将如何实施这些承诺。Meta Platforms 全球事务总裁克莱格(Nick Clegg) 表示“我认为该协议的实用性在于签署该协议的公司的广度,如果各个平台制定新的检测、出处、标签、水印等政策,那一切都很好,但除非有更广泛的承诺以共享的互操作方式做到这一点,否则我们将陷入各家不同尺度所构成的大杂烩中无所适从”。AI技术已被用于干扰政治,甚至说服选民不去投票。Adobe 首席信托官拉奥(Dana Rao)尽管OpenAI 的ChatGPT 等文本生成工具很受欢迎,但科技公司将专注于防止人工智能照片、视频和音频的有害影响,部分原因是人们往往对文本持更多怀疑态度。他表示“音频、视频和图像之间存在情感联系,人类大脑天生就容易相信那些东西”。
PBS报道称,上周美国联邦通信委员会(Amna)裁定,使用人工智能生成内容的自动推送是非法的,新罕布什尔州事件的州总检察长调查显示,得克萨斯州一家名位“Life Corp.”的公司所开发的AI技术被用于自动生成冒充拜登的电话。去年,我们看到了许多使用人工智能生成内容的广告,包括共和党全国委员会用AI虚构的拜登第二任期的乌托邦式未来场景。我们还看到德桑蒂斯(Ron DeSantis)的团队使用AI模仿特朗普声音,以及后者的如法炮制。在美国,两党都在使用AI干预选举,共和党尤其频繁。拜登团队称,已召集了律师和法律学者,试图做好准备打击更多人工智能生成的内容。报道称,尽管以前也有这方面担心,但今年AI应用更广泛,技术更复杂,2024年的人工智能威胁包括可以克隆语音的自动呼叫、复制官方模板的网络钓鱼电子邮件、日益逼真的深度伪造视频和照片,以及冒充官员、办公室和新闻媒体的欺骗帐户,“关键是与2016 年不同,由于生成式人工智能工具的广泛使用,人工智能现在变得更快、更便宜、更容易制造”。美国联合民主中心(States United Democracy Center)的雷斯纳(Katie Reisner)称,选举官员已经在这种高度威胁的环境中开展工作。他们面临骚扰、人身暴力威胁、选举管理中断。他们在招募足够的工作人员和投票工作人员方面遇到了困难,最终,他们没有足够的资源。因此,在这种组合中加入人工智能可能会让这些选举官员的工作变得更加困难,“这就像将助燃剂倒在这种已经非常易燃的物质上”。专家们指出,2020年美国大选时,AI集中干预少数族裔社区,以试图阻止他们投票,但如今AI允许制作者们为不同社区量身定制不同内容,并令干扰性邮件和电话更具说服力。“因此即便科技公司作出承诺,也难以杜绝这类影响和干扰”。布伦南司法中心的劳伦斯·诺登(Lawrence Norden)认为,科技公司的责任不仅在于尽可能确保人工智能生成的任何东西都为公众贴上标签,而且有责任增加他们的信任和安全团队寻找可能是虚假信息活动的协调机器人活动,寻找虚假新闻网站,并在发现它们时将其关闭,因为没有任何法律禁止AI技术干扰选举,因此科技公司和平台必须自愿作出努力。
美国布鲁金斯学会(The Brookings Institution)宣布,将于3月13日在布鲁金斯学会技术创新中心(Center for Technology Innovation at Brookings)由高级研究员韦斯特(Darrell West) 和专家小组主持,举行有关人工智能和选举虚假信息带来的危险以及保护公众方法的讨论,该学会表示,2023年,AI出现爆炸式增长,几乎任何人都可以快速且廉价地创建合成图像、视频、音频和文本。随着总统选举的临近,人们严重担心虚假信息和合成内容的激增可能会影响预计势均力敌的竞选。政治竞选活动已经开始使用生成式人工智能工具来制作广告、发送机器人电话和联系选民,促使政策制定者提出重大立法和护栏,以保护我们选举的完整性。
《镜报》报道称,Adobe、亚马逊、谷歌、IBM、Meta、微软、OpenAI、Snap、TikTok 和X 等几家主要科技公司周五签署了一项协议,承诺打击在今年选举中使用欺骗性人工智能(AI) 的行为。据一份新闻稿称,这20 家参与公司承诺,除了参与教育活动和提供透明度之外,还将“合作开发工具来检测和解决人工智能生成内容的在线传播问题”,这些内容旨在在全球选举中欺骗选民。宣布该协议的慕尼黑安全会议主席霍伊斯根(Christoph Heusgen) 在一份声明中表示,此举是“促进选举公正性、增强社会复原力和创建值得信赖的技术实践的关键一步”,慕尼黑安全会议“很自豪能够为科技公司提供一个平台,让其采取措施遏制人工智能带来的威胁,同时利用人工智能来促进民主利益”。新闻稿指出,该协议达成之际,今年将有超过40 亿人前往包括美国在内的40多个国家参加投票。随着政治竞选活动及其支持者越来越多地利用人工智能,人们越来越担心快速发展的技术欺骗选民的力量。上个月,冒充拜登总统的电话向新罕布什尔州选民发出,敦促他们不要在该州初选中投票,此事促使美国联邦通信委员会打击人工智能生成的机器人电话。然而专家警告这远远不够,有人呼吁美国国会和联邦选举委员会也采取行动。
KOAM援引PEW Research 2023 年的一项研究指出,人们对人工智能和潜在风险的担忧正在上升,52% 的美国人对人工智能的担忧多于兴奋。密苏里南方州立大学讲师、人工智能研究员福特汉姆(Diana Fordham) 表示“这种技术可用于善意和邪恶。它是传播错误信息和谎言的一种方式”、“我们还没有为这个选举季将要发生的事情做好准备”。几家人工智能公司已发表声明,计划阻止其产品在选举季节被负面使用。一月份,ChatGPT 的运营商OpenAI 在其网站上发表了一份公开声明,表示他们的意图是“确保我们的技术不会以可能破坏这一过程的方式使用”。但福特汉姆表示,个别公司的努力可能还不够,因为“技术开发是主流企业所为,且很难被识别”。但她指出,也存在一些简易识别手段,如深度伪造视频可能会出现轻微故障,而人物的人工智能图像通常比例不正确。但福特汉姆表示,她预计这项技术会发展得足够快,这样这些线索就不会长期存在。她认为,与技术分析相比,尽可能进行事实核查更有效,“必须质疑一切和研究一切,人们必须在遇到任何他们认为可能是错误信息、深度造假或任何听起来不太正确的文章时都应秉持这一态度”。福特汉姆表示,选举期间人工智能生成图像和视频的问题不会消失。她说,重要的是选民要了解先进的技术,这样他们才能在选举季节保持警惕。
天空电视台报道称,2024年,50个国家逾20亿人将参加投票,这是历史新高,自ChatGPT 和Midjourney 等图像创建工具等生成型人工智能工具成为主流以来,这将是世界上一些最大的民主国家首次举行全国投票。致力于促进互联网安全的非营利组织“自由计划”(Project Liberty)CEO拉金(Martina Larkin)警告称,在人工智能驱动的错误信息方面,政客们正处于“金字塔的顶端”。拜登、特朗普和泽连斯基(Volodymyr Zelenskyy)等多次成为这类AI合成视频的虚拟主角,英国工党领袖斯塔默(Keir Starmer)也不能幸免。各国政府正在考虑如何监管这项技术,但有些政府的行动速度比其他政府更快。去年10月,拜登公布了一项相关提案,包括强制要求人工智能生成的内容带有水印。欧盟已就如何监管人工智能达成协议,不过最早要到2025 年才会生效,而欧洲议会2024年就会举行选举。在英国,政府对监管的必要性一直持谨慎态度,担心这会扼杀创新。Meta 等公司因在2016 年美国大选和英国脱欧公投期间没有采取足够措施打击假新闻而受到批评,而政府也面临着引入防护措施的压力。阿南德(Kunal Anand) 曾为曾经占主导地位的社交媒体网站MySpace 负责安全工作,他表示,生成式人工智能、机器人和社交媒体的结合可能会以前所未有的方式“加速虚假叙述”。他表示平台有“责任”删除虚假内容,但敦促选民也做好准备,“人们比以往任何时候都更需要验证他们所看到的”,“检测深度伪造品并不容易。但如果有些东西看起来有问题,请验证它,要确保自己的信息来源更加多元化”。
CNBC报道称,达沃斯世界经济论坛(The World Economic Forum)的《2024 年全球风险报告》(Global Risks Report 2024)将人工智能衍生的错误信息和虚假信息排在气候变化、战争和经济疲软之前。这份2月14日发布的报告将人工智能衍生的错误信息和虚假信息及其对社会两极分化的影响排在气候变化、战争和经济疲软之前,列为未来两年的十大风险。这份报告的共同制作者Marsh McLennan 咨询公司欧洲首席商务官克林特(Carolina Klint)表示,“人工智能可以建立以我们以前从未见过的方式影响大量选民的模型”。这份世界经济论坛报告是与苏黎世保险集团(Zurich Insurance Group)合作制作,于2023 年9 月对1,400 多名全球风险专家、政策制定者和行业领导者进行了调查,了解他们最关心的全球问题。该报告的作者表示,综合风险正在“将世界的适应能力扩展到极限”,并呼吁领导人关注全球合作,并为最具破坏性的新兴风险建立防护栏。世界经济论坛董事总经理扎希迪(Saadia Zahidi)表示:“以两极分化和不安全为特征的不稳定的全球秩序、极端天气和经济不确定性的日益恶化的影响正在导致风险——包括错误信息和虚假信息——加速传播。世界领导人必须齐心协力解决短期危机,并为更具弹性、可持续和包容性的未来奠定基础”。该报告所列举的全球未来10大风险依次为:错误信息和虚假信息、极端天气事件、社会两极分化、网络不安全和国家间武装冲突。排名前十的还有缺乏经济机会、通货膨胀、非自愿移民、经济衰退和污染。
POLITTCO报道指出,美国国会尚未通过任何一项监管人工智能在选举中使用的法律。联邦选举委员会主席库克西表示,该委员会将在初夏之前制定人工智能规则。即便如此,目前尚不清楚联邦选举委员会对竞选中的人工智能拥有管辖权,也不清楚第一修正案允许哪些监管。一些州已通过了法律,规范竞选材料中人工智能生成的内容,但不少州立法者承认已经落后。报道指出,就目前而言,2024 年是“人工智能实验周期”,一些选举战略家们意识到,如今选民对人工智能产生的欺骗持怀疑态度。最近在斯洛伐克、阿根廷等国家,AI干预选举的情况屡见不鲜,这也加深了人们的忧虑,因为人工智能生成的内容一旦创建,就可以在几乎没有限制的平台上自由传播。尽管科技公司正作出努力,但历史上它们在执行政策方面曾表现不佳,如未成年人在线安全问题实际上从未真正得到有效解决,因此此次努力的效果也令人怀疑。微软民主前进计划(Microsoft’s Democracy Forward initiative)高级总监巴达尼斯(Ginny Badanes)13日就表示,“现实情况是,制造深度伪造品的技术将会不断进步,就像我们在捕捉深度伪造品的技术方面不断进步一样”、“这将是一场永远的军备竞赛”。