封面新闻记者 边雪
大型语言模型(以下简称LLMs)正在经历从未有过的快速发展,并迅速成为科技界的主流研究对象之一。毫无疑问,LLM的发展标志着机器学习与人工智能向前迈出了重要的一步,但在展示其处理平凡任务和复杂创造性任务能力的同时,LLMs似乎对所有行业都有潜在的影响。
对执法部门而言,LLMs的发展意味着什么?为了应对公众对ChatGPT、Google Bard等LLMs产品日益增长的关注,欧盟执法机构——欧洲刑警组织(Europol)创新实验室组织了一系列研讨会,与来自整个组织的主题专家探讨犯罪分子如何滥用LLM,以及如何协助调查人员开展日常工作,并在当地时间3月27日发布了技术观察报告以记录会议讨论结果。
在欧洲刑警组织发表题为《ChatGPT-大型语言模型对执法的影响》的报告(以下简称报告)称,人工智能聊天机器人ChatGPT可能被滥用于网络钓鱼、宣传虚假信息以及网络犯罪,这加剧了外界对这一新兴事物在法律、道德等方面的担忧。“在技术观察快报中,欧洲刑警组织的创新实验室经常与其他执法机构和业务合作伙伴并肩工作,对可能影响执法工作的新技术进行分析。”
欧洲刑警组织发表题为《ChatGPT-大型语言模型对执法的影响》的报告。(图片来源:官网截图)
警惕!ChatGPT也可以成为犯罪者的工具
OpenAI旗下产品ChatGPT,在2022年11月发布之后,便迅速引发全球科技界的轰动。让聊天机器人生成论文、报告、电子邮件、编程代码和各种其他文本。据报告,欧洲刑警组织详细介绍了该模型如何被滥用于更邪恶的目的。警方声称,事实上,已经有人在使用这些模型进行非法活动。
“随着ChatGPT等LLMs的能力不断升级,犯罪分子可能滥用这类人工智能系统,前景不容乐观,这些类型的模型可能对执法工作产生的影响已经可以预见,”欧洲刑警组织在报告中表示,通常情况下,犯罪分子很快就会利用新技术,而在 ChatGPT 公开发布几周后,他们就发现了利用相关软件犯罪的具体案例。
尽管ChatGPT更擅长拒绝回答可能“有害”的问题请求,但用户早已经找到了绕过OpenAI内容过滤系统的方法。“例如,有些人让它回答有关如何制造武器的说明。还在教会用户如何用ChatGPT犯罪之后,请其进行分步指导。”
欧洲刑警组织在报告中发出警告,“如果潜在犯罪分子对特定犯罪领域一无所知,ChatGPT可以通过提供关键信息来显着加快潜在犯罪分子的学习过程,然后帮助他们在后续步骤中进一步探索犯罪方法。因此,ChatGPT可用于在没有先验知识的情况下了解大量潜在的犯罪领域,从如何闯入房屋,网络犯罪和儿童性虐待。”
“该模型的相关开发机构承认,所有这些信息已经在互联网上公开,但该模型使查找和了解如何实施特定犯罪变得更加容易。”欧洲刑警组织强调,ChatGPT或被用于三个主要的犯罪领域,分别是网络钓鱼、宣传虚假信息以及网络犯罪。
网络钓鱼也是网络犯罪的一个重要的应用领域,它通过发送虚假电子邮件来诱使用户点击链接。在过去,由于语法或语言错误,这些骗局很容易被发现,而人工智能生成的文本高度逼真加大了骗局被识破的难度。
“ChatGPT能够起草高度逼真的文本,这使其成为网络钓鱼的有用工具。”欧洲刑警组织表示。
一款由ChatGPT生成的网络钓鱼邮件。(图片来源:网络截图)
此外,由于该聊天机器人拥有复制语言模式的能力,可以模仿特定个人或群体的说话风格,犯罪分子可能会利用它来瞄准受害者。
ChatGPT生成代码的能力甚至是恶意代码——通过降低创建恶意软件所需的技术技能,增加了网络犯罪的风险。
悬在头上的“达摩克利斯之剑”
封面新闻记者在该报告中发现,欧洲刑警组织认为,对于一个几乎没有技术知识的潜在罪犯来说,LLMs的诞生是一个非常“宝贵的资源”。“与此同时,更先进的用户可以利用这些改进的功能来进一步完善甚至自动化复杂的网络犯罪手法。”
LLMs虽仍处于起步阶段,但随着科技公司投入资源开发技术,它们正在迅速改进。自ChatGPT发布以来,微软和谷歌都在其搜索引擎中推出了基于人工智能的网页搜索聊天机器人,OpenAI已经发布的GPT-4是一个更强大的系统,而据此研发的产品也在越来越广泛地应用于人们的工作与生活。
欧洲刑警组织表示,随着越来越多的公司推出人工智能功能和服务,这将为利用该技术从事非法活动开辟新途径。“多模式人工智能系统,将对话聊天机器人与能够产生合成媒体的系统结合起来,例如高度令人信服的假消息,其内容可能覆盖人类的各种感官能力,如视觉和听觉,”报告指出,例如,有人询问“ChatGPT是否可以接受有害数据训练的语言模型秘密版本,可以托管在没有内容过滤器的暗网上。”
无论是接连迭代更新的ChatGPT,还是刚开启内测的Google Bard,前景看似一片光明之余,似乎也绕不开“达摩克利斯之剑”的魔咒。
因ChatGPT犯罪的人已经上路了
欧洲刑警组织的担心并非空穴来风。在封面新闻记者检索时发现,围绕类似的安全突破方法,一系列犯罪方法论已经成型,比如借助ChatGPT创建信息窃取程序。
不久前,一篇《ChatGPT——恶意软件的好处》的帖子曾在国外暗网黑客论坛上传播,该帖子的创建者分享了自己利用ChatGPT建立窃取程序代码的全过程,按照操作流程,ChatGPT在较短时间内即可生成一款可扒取、压缩、传输12类文件的程序。
除了信息窃取,ChatGPT还能帮助黑客生成攻击软件和勒索病毒。据英国《金融时报》报道,近日,一款由ChatGPT辅助生成的SIM交换攻击脚本开始在网络上传播。
SIM交换攻击即身份盗窃攻击,原理是突破移动电话公司对电话号码的控制权,将电话号码从原持有者的SIM卡交换到由攻击者控制的SIM卡中,从而控制受害者的移动电话。
勒索病毒则是通过ChatGPT来生成多层加密软件,以此对受害者的计算机进行远程锁定,通过向受害人收取被锁计算机的“赎金”来获益。
值得注意的是,在报告最后,欧洲刑警组织还提出了疑问:“LLMs服务将如何处理用户数据还存在不确定性——用户与之会话是否会被存储或有可能向未经授权的第三方披露敏感的个人信息?如果用户生成有害内容,是否应向执法机关报告?”
未来,随着监管力量的增强,如果OpenAI的数据使用方式被进一步规范,ChatGPT的深度神经网络能否真正做到忘记那些用于训练自己的数据?
这个问题的答案,或许将决定悬在ChatGPT头上的“达摩克利斯之剑”能否安全摘下。