人工智能给黑社会和犯罪分子带来了巨大的生产力提升。
安全公司 Trend Micro 的高级研究员文森佐·齐坎加利尼(Vincenzo Ciancaglini)表示,生成式人工智能提供了一系列新的、强大的工具,使恶意行为者能够以前所未有的效率在国际层面上实施犯罪。
齐坎加利尼说,大多数罪犯“不是每天生活在黑暗的地下室里谋划坏事,他们中的大多数人都是普通人,也要工作”。
2023 年,我们看到了 WormGPT 的兴起和衰落。这是一个建立在开源模型之上的人工智能语言模型,根据恶意软件相关数据进行训练,旨在帮助黑客实施网络攻击,而且没有道德规则或约束。
但 2023 年夏天,在该模型开始引起媒体关注后,开发者将其关闭了。从那时起,网络犯罪分子大多停止了人工智能模型的开发,转而选择使用现成的、可靠的人工智能工具。
齐坎加利尼解释说,这是因为犯罪分子想要简单的生活和快速的收益。采用任何新技术所要承担的未知风险,都必须有更高的收益才值得。
如果使用新技术被抓的风险更高,那么它必须比他们目前使用的技术更好,并带来更高的回报。
以下是犯罪分子目前使用人工智能的五种方式。
(来源:STEPHANIE ARNETT/MITTR | PUBLIC DOMAIN,JOLYGON/ADOBE (COINS))
网络钓鱼
瑞士苏黎世联邦理工学院人工智能安全研究员米斯拉夫·巴鲁诺维奇(Mislav Balunović)表示,目前网络钓鱼是犯罪分子最常使用生成式人工智能的用途,即试图诱骗人们透露私人信息。
研究人员发现,ChatGPT 的兴起伴随着网络钓鱼电子邮件数量的激增。
齐坎加利尼说,GoMail Pro 等垃圾邮件生成服务已将 ChatGPT 集成进去,允许恶意用户翻译或改进发送给潜在受害者的信息。
齐坎加利尼说,OpenAI 的政策限制人们将其产品用于非法活动,但这在实践中很难监管,因为许多看起来无害的提示也可能被用于恶意目的。
OpenAI 表示,它使用人工审核和自动化系统来识别和对抗对其模型的滥用,并在用户违反公司政策时发出警告、执行临时账号冻结或彻底封禁。
OpenAI 的一位发言人告诉我们:“我们认真对待我们产品的安全性,并根据人们使用我们产品的方式不断改进我们的安全措施。”
发言人补充道:“我们一直在努力让模型更安全、更坚固,以阻止滥用和越狱,同时保持模型的有用性和性能。”
在 2 月份发布的一份报告中,OpenAI 表示,它已经关闭了五个有国家背景支持的恶意行为者的账号。
齐坎加利尼说,以前所谓的“尼日利亚王子”骗局相对容易被发现。在这种骗局中,有人承诺向受害者赠送一大笔钱,但后者需要支付小额预付款。这些诈骗邮件往往英语很烂,语法错误百出。
现在,语言模型允许骗子生成看起来十分地道的英文邮件。
齐坎加利尼说:“说英语的人过去相对安全,不会受到非英语犯罪分子的欺骗,因为你会意识到这是骗局,但现在不是这样了。”
得益于更好的人工智能翻译工具,世界各地的不同犯罪团伙也可以更好地交流。齐坎加利尼说,潜在风险在于他们可能会协调跨国的大规模行动,并针对其他国家的受害者实施欺骗。
深度伪造音频骗局
生成式人工智能让深度伪造(Deepfake)的发展向前迈出了一大步,人工智能合成的图像、视频和音频比以往任何时候都更逼真。犯罪分子显然意识到了这一点。
据报道,2024 年早些时候,一名香港员工被诈骗了 2500 万美元,因为网络犯罪分子使用该公司首席财务官的深度伪造形象说服该员工将钱转入了骗子的账户。
齐坎加利尼说:“我们已经看到深度伪造终于开始进入地下市场了。”
他的团队发现,人们在 Telegram 等平台上炫耀他们的深度伪造“产品”,并以每张图片 10 美元或每分钟视频 500 美元的价格出售他们的服务。
齐坎加利尼说,最受犯罪分子欢迎的深度伪造目标之一是埃隆·马斯克(Elon Musk)。
尽管深度伪造视频制作起来仍然很复杂,更容易被人们发现破绽,但深度伪造音频的情况并非如此。
它们制作成本低廉,只需要目标人物的几秒钟语音,可以从他们的社交媒体上截取,就能产生高质量的伪造。
在美国,已经出现了一些备受关注的案件,人们接到亲人打来的电话,说他们被绑架了,要交钱才能获释,结果打电话的人竟然是一个使用深度伪造音频的骗子。
齐坎加利尼说:“人们需要意识到,现在这些事情都成为了可能,人们也需要意识到,现在的‘尼日利亚王子’不再用蹩脚的英语说话了。”
他补充道:“人们可以用另一种声音给你打电话,他们会让你处于压力很大的境地。”
他说,有些方法可以保护自己。齐坎加利尼建议,亲人之间可以商量一个定期更改的秘密安全词,这有助于确认电话另一端的人的身份。
“我(现在)用安全词来保护我奶奶。”他说。
绕过身份检查
犯罪分子使用深度伪造的另一种方式是绕过“了解你的客户”验证系统。银行和加密货币交易所使用这些系统来验证他们的客户是真人和本人。
这些机构要求新用户在相机前拍下自己拿着身份证件的照片,但犯罪分子已经开始在 Telegram 等平台上销售应用程序,可以让人们骗过这一流程。
它们的工作方式是提供一个伪造或被盗的身份证,并在真人的脸上放上一个深度伪造的头像(有点像滤镜),以欺骗身份验证系统。
齐坎加利尼发现了一些例子,人们为加密货币公司币安提供这些服务,价格仅为 70 美元。
“它们使用的技术相当普通。”齐坎加利尼说。这些技术类似于Instagram 滤镜,将别人的脸放在自己的脸上。
他说:“我们可以预期,未来(犯罪分子)会使用真正的深度伪造,来绕过更复杂的身份验证。”
图 | 犯罪分子使用被盗身份证和人脸交换技术绕过身份验证系统(来源:资料图)
越狱即服务
如果你问大多数人工智能系统如何制造一个炸弹,你不会得到有用的答案。
这是因为人工智能公司已经采取了各种保护措施,防止它们的模型产生有害或危险的信息。
由于技术和成本等问题,网络犯罪分子不愿意打造一个没有安全护栏的人工智能模型,而是开始接受一种名为“越狱即服务”的新趋势。
大多数模型都有关于如何使用它们的政策,而所谓的“越狱”就是允许用户操纵人工智能系统生成违反这些政策的输出,例如为勒索软件编写代码或生成诈骗电子邮件的文本。
EscapeGPT 和 BlackhatGPT 等服务提供连接到语言模型的应用程序编程接口(API,Application Programming Interface)和越狱提示,它们还会不断更新,并宣称是匿名访问。
为了应对这个不断壮大的黑色产业,OpenAI 和谷歌等人工智能公司经常要堵住可能导致其模型被滥用的安全漏洞。
越狱服务使用不同的技巧来突破安全机制,例如提出假设性问题或用外语提问。
人工智能公司努力阻止它们的模型规则被打破,而恶意行为者努力想出越来越有创意的越狱提示,两者之间一直存在着猫捉老鼠的游戏。
齐坎加利尼说,这些服务正在成为犯罪分子的新宠。
“寻找越狱的方法是一项乏味的活动。你想出一个新方法,然后你需要测试它。
未来几周它是好用的,直到 OpenAI 更新它的模型。他补充道,“对于犯罪分子来说,越狱是一项非常有趣的服务。”
网络开盒和监控
巴鲁诺维奇说,人工智能语言模型不仅是网络钓鱼的完美工具,也是 doxxing(在网上披露某人的私人身份信息,又称“开盒”或“人肉”)的完美工具。
这是因为人工智能语言模型是根据包括个人数据在内的大量互联网数据进行训练的,甚至可以推断出某人的位置。
举个例子,你可以让聊天机器人假装是一名有经验的私家侦探,然后你可以让它分析受害者写的文字,并从文字中的小线索推断出个人信息。
例如,通过他们上高中的时间推测出年龄,或者用他们在通勤途中提到的地标推测出他们住在哪里。互联网上关于他们的信息越多,他们的信息就越容易被识别出来。
巴鲁诺维奇所在的研究小组在 2023 年年底发现,GPT-4、Llama 2 和 Claude 等大型语言模型能够纯粹从与聊天机器人的日常对话中推断出人们的种族、位置和职业等敏感信息。
理论上,任何能够访问这些模型的人都可以以这种方式使用它们。
自从他们的论文发表以来,滥用语言模型这一特性的新服务已经出现。
虽然这些服务的存在并不意味着犯罪活动,但它指出了恶意行为者可能掌握的新功能。
巴鲁诺维奇说,如果普通人能够构建这样的监控工具,有国家背景的恶意行为者可能会有更好的系统。
他说:“我们防止这些事情发生的唯一方法就是加强防御。”他补充道,公司应该在数据保护和安全方面进行投资。
对个人来说,提高认知是关键。巴鲁诺维奇说,人们应该三思而后行,并慎重决定他们是否愿意向语言模型透露自己的个人信息。
作者简介:梅丽莎·海基莱(Melissa Heikkilä)是《麻省理工科技评论》的资深记者,她着重报道人工智能及其如何改变我们的社会。此前,她曾在 POLITICO 撰写有关人工智能政策和政治的文章。她还曾在《经济学人》工作,并曾担任新闻主播。
支持:Ren
运营/排版:何晨龙