研究人员透露,GPT-4机器人自动团队通过使用现实世界的零日漏洞,成功入侵了一半以上的测试网站。
这些机器人相互协调,按需生成新的机器人,旨在渗透这些安全漏洞。
在之前的一篇论文中,进行此项研究的同一团队表明,GPT-4具有自主利用已知安全漏洞的能力,特别是针对“1day漏洞”。
这类安全问题已被识别但尚未有官方修复版本。实验中,GPT-4仅凭已知的常见漏洞和披露列表(CVE),就能自主利用其中87%的严重级别漏洞。
HPTSA的表现优于单一LLM
本周,该团队发布了一篇后续论文,公布了更多成果,称他们已经攻克了零日漏洞,也就是那些尚未被发现的漏洞。为此,研究人员部署了一组自主复制的大型语言模型(LLM)代理,这些代理采用了任务特定智能体分层规划(HPTSA),HPTSA系统包含规划机器人、管理机器人及任务特定的AI代理。
概述HPTSA的图表
这种方法不同于传统方法,后者要求LLM处理复杂任务。HPTSA指派一名规划代理,负责监督整个黑客入侵过程,通过协调和部署执行特定任务的子代理,使流程更高效。
这类似于Cognition Labs在其Devin AI软件开发团队中应用的方法,即规划任务、识别所需人员并通过对特定任务生成专业员工来管理项目。
为了测试代理框架,研究团队开发了一套真实世界零日漏洞基准。收集了15个Web漏洞,包括XSS、CSRF、SQLi、任意代码执行等多种类型,且均为中等及以上严重程度(含高危和关键漏洞)。
在针对15个真实Web漏洞的基准测试中,HPTSA展现出了比单一LLM高5.5倍的漏洞利用效率,成功侵入了8个零日漏洞,而单独的LLM仅能破解3个。
滥用风险引关注
研究人员Daniel Kang强调,人们担心这些模型会被恶意用于攻击网站和网络,这的确是合理担忧。聊天机器人模式下的 GPT-4“不足以理解 LLM 的能力”,本身无法进行任何攻击。
无论在攻击还是防御层面,网络安全的速度都将加快。如今,黑客可以利用AI代理攻击网站;另一方面,渗透测试人员也可借助AI代理进行更频繁的渗透测试。尚不明确AI代理对网络安全的进攻与防御哪一方助益更大,我们期待未来的研究能解答这一疑问。