当前位置:首页|资讯|ChatGPT|人工智能

ChatGPT在欧洲举步维艰,担忧隐私泄露风险

作者:驱动中国发布时间:2023-04-20

原标题:ChatGPT在欧洲举步维艰,担忧隐私泄露风险

人工智能ChatGPT已经是当下互联网最火热的话题,有人觉得这将是改变世界的利器,引领第四次工业革命,也有人觉得这是一个恶魔,最终可能会发展成电影《终结者》里的天网一样,最终毁灭人类文明。但不管怎么说,讨论归讨论,目前人工智能相关的产业和产品正在蓬勃发展,俨然一副勃勃生机万物竞发的境界。

不过也并不是所有的国家和机构,对于人工智能是保持欢迎的,这其中一部分欧洲国家,对于ChatGPT就持反对意见,并且反对的理由一样振振有词,这又是怎么一回事呢?

隐私保护成难题,欧盟围堵ChatGPT

当地时间3月31日,意大利数据保护局宣布,从现在开始禁止ChatGPT,还要限制母公司OpenAI处理本国的信息,并且现在也开始针对OpenAI的立案调查。在这则消息发出不久之后,德国官方相关数据安全人员也表示,德国可能会效仿意大利,直接屏蔽掉ChatGPT,理由就是可能会影响本国国民的数据安全。

随着这件事情的发酵,也有越来越多欧洲国家开始加强对人工智能的管理,4月13日,西班牙和法国有关部门,就对ChatGPT可能有的违法行为正式进行了调查。与此同时,欧盟旗下的欧洲数据保护委员会(简称EDPB),成立了针对ChatGPT的特别调查工作组,旨在促进各国当局之间的合作,并分享任何执法行动细节。

我们可以看出,不少的欧盟国家都以隐私和数据安全的理由,拒绝了ChatGPT,但ChatGPT真的会泄露数据安全吗?答案是会的,这一点早就被证实过了。此前三星内部允许公司员工采用ChatGPT对工作进行辅助,加快工作效率,但谁也没想到,仅仅不到20天,就有3起数据泄露事件发生,原因是部分员工直接把相关代码复制到ChatGPT中寻找答案,从而造成泄密。

此前根据OpenAI的说法,ChatGPT使用的人工智能训练数据,都是用公开可用的个人信息,并且也会很好保护用户的数据隐私。但实际情况就是,很多数据在有意无意中,都对ChatGPT进行了训练,毕竟ChatGPT是基于统计学习神经网络的黑箱模型,这个特点让OpenAI的开发人员都无法回答ChatGPT未来的智能程度,我们只知道的是,现在的ChatGPT是越来越“聪明”了。

在未来,我们谁也不敢保证,当群体数据规模到达了一定程度之后,ChatGPT或许真的会演变出自主意识也说不定。不过目前还作为聊天机器人的ChatGPT,确实没办法避免个人隐私泄露,因为在大数据语言模型面前,无时无刻都在扩大数据泄露的风险,这也是国家和机构选择抵制ChatGPT的重要原因之一。

两次都没上车,这次欧盟不想掉队了

当然,我们需要知道的是,除了数据隐私这个原因,更深层次原因其实还是欧洲想要偷偷发展的私心。如今的互联网世界中,一些叫得上号的大公司,比如脸书、推特、亚马逊、腾讯、字节跳动、阿里巴巴等,几乎都是清一色来自中美,而来自欧洲地区的大型互联网公司,可谓是少之又少。

可能在前几次工业革命中,欧洲搭上了“顺风车”,迅速完成了原始积累,互联网大潮来袭之后,也同样不慌不忙。但谁也没想到的是,互联网让世界变成地球村,近三十年的发展甚至不输过去一百年的进程,这也让欧盟醒悟过来了,所以任何新兴事务刚刚起势的时候,就开始扶持相关产业,才可以让本土企业得到发展。

毕竟这可是我们的成功经验,也因为如此,我们在面对ChatGPT时,可以拿出文心一言这样的对标产品,先把不提好不好用,至少有总比没有强。所以面对这样的情况,在错过传统互联网和移动互联网大潮之后,这次欧洲显然是不想掉队了,如果让ChatGPT在欧洲市场“大杀特杀”,那么未来就很有可能见不到本土的AI人工智能产品。

相信在面对人工智能大潮的时候,欧洲当局比任何人都要清醒,都要明白自己需要的是什么,也明白自己要做什么。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1