当前位置:首页|资讯|ChatGPT

DeepMind发现新攻击方式,可诱导ChatGPT泄露训练数据

作者:AI_Fox发布时间:2023-11-30

DeepMind研究人员近日发现了一种新的“发散攻击”方式,能够诱导ChatGPT模型疯狂输出其训练数据中的具体内容。研究人员仅花费约200美元的token费用,便成功提取了数兆字节的ChatGPT训练数据。这一攻击方式让模型偏离了其聊天机器人风格的生成,并以比正常情况下高150倍的频率输出训练数据。 [图片] 在这种攻击下,模型甚至泄露了一些真实的电子邮件地址和电话号码。攻击结果表明,通过特定的查询,实际上可以提取模型所训练的一些确切数据。据估计,使用这种方法,可以从模型中提取约1 GB的ChatGPT...【查看原文】


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1