当前位置:首页|资讯|ChatGPT|编程

ChatGPT发生恶性Bug:开源代码导致用户聊天历史泄漏

作者:36氪的朋友们发布时间:2023-03-23

北京时间周四凌晨,OpenAI首席执行官萨姆·奥尔特曼在社交媒体上沉痛宣布,由于源自开源代码库的一个程序错误,ChatGPT出现了一起严重问题。目前开发团队已经发布了修复程序,并已经完成验证。对此,OpenAI感到“很糟糕”。

(来源:奥尔特曼推特)

奥尔特曼也确认,受到这个Bug影响用户,在本周一度无法使用聊天历史,后续公司也将对这个问题进行电子“尸检”。

截至发稿,ChatGPT的聊天历史侧边栏功能仍未上线。网页上仍然显示“Chat历史暂时无法使用,我们正在努力工作尽快回复这项功能。”

(来源:ChatGPT)

从本周一早上开始,各大互联网平台上涌现出大量帖子,表示他们的聊天历史栏中出现了别人的聊天历史。有美国网友在Reddit上发布的帖子显示,自己的聊天历史框里出现了名为“中国特色社会主义理论”的中文对话。

对此,OpenAI周二向媒体确认出现Bug,并下线了聊天历史功能,公司也强调发生泄漏的只有聊天历史的标题,用户无法看到别人实际聊天的内容。

话虽如此,这一事件再度引发了互联网数据安全的担忧。从去年11月开始,已经有数百万人使用ChatGPT撰写文档、诗歌,甚至代码。这些聊天储存在“聊天历史”对话框中,以便用户未来再度进行访问。由于这些数据会被储存在云端的数据库中,用户和机器人的对话存在被第三方窃取的客观可能性。

事实上,在ChatGPT的隐私政策中,就包含了允许使用用户数据训练模型的条款,不过公司也表示会抹去个人的身份信息。同时在ChatGPT的问答文档中,OpenAI也明确表示,无法删除特定的用户数据,请不要在与机器人的对话中泄露任何敏感信息

(来源:ChatGPT)

本文来自财联社,编辑:史正丞,36氪经授权发布。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1