当前位置:首页|资讯|ChatGPT|人工智能|元宇宙

ChatGPT的数据安全问题 引发关注

作者:第一财经发布时间:2023-02-27

原标题:ChatGPT的数据安全问题 引发关注

[ 由于人工智能的迭代速度惊人,未来可能会继续超越人们的认知,不少行业人士对记者表示,业界应该高度重视这个问题,应立即着手构建相应的安全技术和制度。 ]

在2023世界人工智能开发者先锋大会开幕式上,开放元宇宙基金会董事罗尤·奥布莱恩谈及ChatGPT时,特别提到了安全问题,“我们一定要有保障的规则,要有护栏,确保做坏事的人带来的影响有限。”

尽管ChatGPT的概念出现没有多久,但对网络安全和数据安全带来威胁的问题已经成为业内关注的焦点。对于目前为止还在“一本正经胡说八道”的ChatGPT,如此担忧是否杞人忧天?

Fortinet北亚区首席技术顾问谭杰对第一财经记者表示,ChatGPT等AI技术对网络和数据安全的威胁已经在发生了。

谭杰表示,尽管ChatGPT本身尚不具备直接攻击网络安全和数据安全的能力,但是由于它具有自然语言生成和理解的能力,可以被用于伪造虚假信息、攻击社交工程等方面。此外,攻击者还可以使用自然语言来让ChatGPT生成相应的攻击代码、恶意软件代码、垃圾邮件等。因此,AI可以让那些原本没有能力发起攻击的人基于AI生成攻击,并大大提高攻击成功率。

谭杰告诉记者,在自动化、AI、“攻击即服务”等技术和模式加持下,网络安全攻击呈现出暴涨趋势。在ChatGPT火爆之前,已发生了多次黑客使用AI技术进行的网络攻击。

人工智能被用户“带偏节奏”的案例并不鲜见,6年前,微软推出智能聊天机器人Tay,上线时,Tay表现得彬彬有礼,但不到24小时,“她”就被不良用户“带坏”,出言不逊、脏话不断,言语甚至涉及种族主义、色情、纳粹,充满歧视、仇恨和偏见。此后,Tay被下线结束了短暂的生命。

另一方面,距离用户更近的风险是,用户在使用ChatGPT等AI工具时,可能会不经意间将私密数据输入到云端模型,这些数据可能成为训练数据,也可能成为提供给他人答案的一部分,从而导致数据泄露和合规风险。

硅谷媒体报道,亚马逊的公司律师称,他们在ChatGPT生成的内容中发现了与公司机密“非常相似”的文本,可能是由于一些亚马逊员工在使用ChatGPT生成代码和文本时输入了公司内部数据信息,该律师担心输入的信息可能被用作ChatGPT迭代的训练数据。

由于人工智能的迭代速度惊人,未来可能会继续超越人们的认知,世界人工智能开发者先锋大会期间,不少行业人士对记者表示,业界应该高度重视这个问题,应立即着手构建相应的安全技术和制度。

已经有企业在思考如何反制人工智能和类ChatGPT应用可能带来的威胁。在人工智能开发者先锋大会上,商汤科技智能产业研究院院长田丰透露将会推出人工智能安全开放平台。

该平台的目标是打造广泛验证使用的可信任的全栈AI安全服务,在深度模型安全上,平台提供模型体检(涵盖对抗安全、鲁棒性以及后门安全评估)和开源的防御解决方案。在内容创作保护上,平台提供数字水印功能,并且利用投毒技术保护图片信息不被深度生成模型所利用。

早在2020年4月,清华大学AI研究院孵化企业Real AI(瑞莱智慧)就尝试性地推出了首个针对AI在极端和对抗环境下的算法安全性检测与加固的工具平台——Real Safe人工智能安全平台。

随后,瑞莱智慧于2021年6月,联合清华大学、阿里安全推出AI攻防对抗基准平台。该平台主要用于对AI防御和攻击算法进行自动化、科学评估。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1