当前位置:首页|资讯|ChatGPT

ChatGPT为泄密事件道歉谁想保护我们的隐私?

作者:美艳说电视剧发布时间:2023-03-28

原标题:ChatGPT为泄密事件道歉谁想保护我们的隐私?

自从ChatGPT风靡全球以来,褒奖与争议不断。人们担心的事情还是发生了:用户隐私被泄露,这也让ChatGPT陷入了困境。

网友称,ChatGPT聊天栏中出现了其他人的聊天记录。3月25日,OpenAI发文确认部分ChatGPTPlus服务订阅者可能泄露了部分个人隐私和支付信息。

“在我们这次关闭ChatGPT的几个小时前,一些用户可以看到另一个用户的姓名、电子邮件地址、支付地址、信用卡信息。我们承诺在任何情况下都不会泄露完整的信用卡号码。”OpenAI向用户和整个ChatGPT社区道歉。

来源:社交平台截图

一封道歉信并没有平息骚乱。反而人们担心,一向“神通广大”的ChatGPT会不会轻易窃取我的隐私?眼花缭乱的人工智能技术会不会被不法分子利用?

ChatGPT号称“保护隐私”

真的是这样吗?

ChatGPT会记住用户信息吗?我们先做了一个测试。当被问及隐私问题时,ChatGPT的回应相当谨慎,但又自相矛盾。

起初它声称不会记住用户的任何信息,包括聊天内容,但随后表示与用户的对话数据可能会存储在OpenAI的数据中心或所使用的云服务提供商的数据中心。

问:你我之间的谈话会保密吗?

ChatGPT:作为AI训练模型,我没有意识,也记不起你的任何信息,也不能主动泄露你的任何信息。我只能回答你的问题并遵守OpenAI的隐私政策。你可以放心地和我说话。

Q:你和我聊天的数据存储在哪里?

ChatGPT:OpenAI存储训练和运行模型所需的数据,并遵守严格的隐私和安全政策。具体来说,你和我聊天的数据可能会存储在OpenAI的数据中心,或者存储在用于实现最佳性能和可用性的云服务提供商的数据中心。所有存储的数据都受到严格的访问控制和安全措施的保护,以确保您的数据安全。

ChatGPT声称“用户信息不会被记住”,从此次隐私事件来看显然不属实。那么在与人的交谈中,ChatGPT会不会不小心泄露、泄露他人的信息呢?

浙江大学计算机学院教授唐思亮告诉潮新闻记者,从大语言模型的训练方式来看,确实存在隐私漏洞。比如让它重写代码,它会东挑一点,西挑一点,合成一段代码。但是有人发现它添加的代码和网上的代码是一样的。它实际上是在复制这些代码。

如果我们进一步展开,让它填充李彦宏的身份证,ChatGPT其实可以填充一串数字,也是18位的格式,但它不是真正的李彦宏身份证,但它知道身份证有18位.一些人担心,如果可以获得真实身份证,隐私可能会受到损害。

不过,唐思亮也指出,即使收集了个人数据,这些数据也绝不能用于训练ChatGPT,因为学习语料库成本高昂,每次训练都需要大量资金投入。即使您告诉它ID,它可能会也可能不会保存它。

“即使ChatGPT确实记住了ID号,如果不是有意识的引导和提示,它也不会被用来生成回复。这些信息都在它庞大的45TB语料库中,未来生成的概率是极小的。”唐思亮说道。

来源:新华社

泄密、攻击、虚假信息

谁想在语言模型中保护隐私?

OpenAI推出了GPT4,随后是GoogleBard和百度文心一言。大型语言模型越来越多,功能越来越强大,但我们的隐私领域是不是越来越小了?

浙江大学计算机学院教授陈华军曾在接受潮新闻记者采访时表示,数据安全和隐私保护都是安全AI或良心AI的事情,现有的大部分大规模人工智能模型有这个问题。

“如果你的个人信息被教进它的大脑,隐私的溯源比以前的互联网更难。在它产生的数据属于谁,如何存储和监控方面,仍然存在法律空白。”陈华军说道。

上周,当ChatGPT遇到技术故障,用户可以看到其他人的搜索记录时,OpenAI首席执行官山姆奥特曼在推特上表示,修复已得到确认,他对此“感到非常难过”。

近日,SamAltman在接受媒体采访时也承认,他有点害怕AI技术以及它如何影响工作、选举和虚假信息的传播,“我担心这些模型会被用于大规模的虚假信息传播。”

尽管语言对话模式在科技行业大行其道,但不少科技巨头对此保持警惕,甚至警告员工不要与他们分享机密信息。

几天前,据CNR报道,微软工程师和亚马逊律师警告员工不要与ChatGPT分享“任何亚马逊机密信息,包括你编写的代码,因为他们可以用它来训练未来的模型。””

这些“全能”的类ChatGPT语言模型也带有很大的法律风险。“ChatGPT无法对信息和数据来源进行事实核查,可能存在泄露个人数据和商业机密、提供虚假信息两大隐患。”北京盈科(上海)律师事务所互联网法律事务部主任谢连杰在接受媒体采访时表示。

JetXie分析,ChatGPT依赖于海量的数据库信息,其中包括互联网用户自己输入的大量信息。因此,当用户输入个人数据或商业机密时,ChatGPT可能会将其包含在自己的语料库中,从而存在泄露风险。虽然ChatGPT承诺会删除所有个人身份信息,但并未具体说明应该如何删除。如果无法对信息和数据的来源进行事实核查,则此类信息仍存在泄露风险。

SamAltman警告说,人工智能的广泛使用可能会产生负面后果,这需要政府和社会共同参与监管。他呼吁反馈和监管对于限制人工智能的负面影响至关重要。

“请提供来源”


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1