不要忘记,您与ChatGPT共享的任何内容都会被保留,并用于进一步训练模型。在不小心泄露了三星的最高机密数据后,三星的员工已经吃了不少苦头。
三星员工在工作中使用ChatGPT寻求帮助时,不小心分享了机密信息。三星半导体部门允许工程师使用ChatGPT检查源代码。
但《经济学人》韩国版报道了三起三星员工无意中向ChatGPT泄露敏感信息的事件。在一个例子中,一名员工将机密源代码粘贴到聊天中以检查错误。另一名员工与ChatGPT和“请求的代码优化”共享代码。第三个人分享了一份会议记录,并将其转换为演讲笔记。这些信息现在已经公开,供ChatGPT使用。
这次泄露是隐私专家一直担心的一个假想场景的真实例子。其他场景包括共享机密法律文件或医疗信息,以便总结或分析冗长的文本,然后可能用于改进模型。专家警告说,它可能违反GDPR法规,这就是意大利最近禁止ChatGPT的原因。
三星已立即采取行动,将ChatGPT的上传容量限制在每人1024字节,并正在调查泄露事件的相关人员。该公司还在考虑建立自己的内部人工智能聊天机器人,以防止未来出现令人尴尬的事故。但三星不太可能召回任何泄露的数据。ChatGPT的数据策略说它使用数据来训练模型,除非你要求退出。在ChatGPT的使用指南中,它明确警告用户不要在对话中分享敏感信息。