ChatGPT的爆红不仅让人们进一步意识到人工智能改变世界的可能,也让一些不法分子“有空可钻”。
近日有媒体报道,已有犯罪分子绕开网站安全机制,利用ChatGPT快速编写诈骗软件实施诈骗,例如编写用于骗取个人信息的钓鱼邮件;生成加密工具远程锁定他人电脑,由此进行勒索;生成攻击脚本,对网络用户进行身份盗窃攻击等等。
这一趋势正受到安全从业者的强烈关注。云服务提供商Akamai向界面新闻介绍,今年网络安全的首要威胁可能是“犯罪服务”,ChatGPT类服务即存在此类风险。
“不法之徒可以在这些平台上向那些本来无法进行网络攻击的人提供服务。”Akamai称,由于ChatGPT能够加快恶意软件的创建过程且不收取任何费用,可能使犯罪服务更加有利可图。此外,考虑到ChatGPT面向所有人的特性,甚至可帮入门级网络罪犯实施犯罪,并大幅降低犯罪成本,“这比直接对受害者实施犯罪赚得更多,而且风险更小了。”
在一项对北美、英国和澳大利亚IT专家的调查中,51%的人认为ChatGPT驱动的网络攻击可能在年底前出现;71%的人认为民族国家可能已经在利用该技术对付其他国家。
这将最终影响到AI的发展。ChatGPT的创建者本人在一条推文中也表示,人类已经离危险的强人工智能越来越近,这种人工智能会带来巨大的网络安全风险。未来十年,随着真正的通用人工智能(AGI)日益成为现实,世界不得不认真对待这种风险。
Akamai认为,ChatGPT或生成式AI有可能进一步激化网络安全问题,包括网络钓鱼、垃圾邮件、聊天诈骗等犯罪形式在ChatGPT等的加持下危害剧增。安全机构Check Point Research即在近期发表的报告中表示,他们在地下论坛发现有黑客试图绕过限制,将ChatGPT用于恶意活动。ChatGPT不仅可被攻击者用来撰写网络钓鱼电子邮件,并产生基本的恶意VBA程序代码。
Akamai区域副总裁暨大中华区总经理李昇认为,在日益复杂的网络攻击环境中,为了确保用户能够在去中心化的网络中获得安全的数字体验,企业必须将安全厂商的产品和工具整合到自己的风险控制体系中。
李昇称,企业还应该充分利用相关技术方案,如零信任方法来进一步加强自身安全。在此基础上,对所有的用户、应用和数据要及时认证,以最小的权限、持续的认证和安全检查去覆盖所有安全环节,由被动转主动去提供安全防护。
在应对生成式AI带来的监管挑战上,各国都在摸索应对。监管层面,已经有69个国家的800多项AI政策倡议将要出台,但尚未涉及生成式AI模型的应用。例如,拜登政府的《人工智能权利法案》蓝图可以帮助组织机构和开发者管理消费级AI的风险,但它没有解决生成式AI工具独有的问题。欧盟在2021年4月推出《AI法案》草案,率先为人工智能立法,其中要求在AI系统与人对话前,应告知对方谈话对象是AI。现在ChatGPT袭来,各国政要均已发声,要求尽快做更多调研。
本文来自“界面新闻”,作者:彭新,36氪经授权发布。