当前位置:首页|资讯|ChatGPT|OpenAI|微软|亚马逊|人工智能

自身数据安全吗?这是ChatGPT写的解释,你怎么看

作者:南方都市报发布时间:2023-02-13

原标题:自身数据安全吗?这是ChatGPT写的解释,你怎么看

数安新视野之热点事件

OpenAI旗下推出的人工智能聊天机器人ChatGPT,因其可能带来的数据安全风险引发公众热议,微软、亚马逊等科技巨头纷纷提醒员工不要与ChatGPT分享敏感数据。南都大数据研究院与ChatGPT进行了一场对话,看看ChatGPT站在聊天机器人立场,怎么解释自身数据泄露等安全问题。

通过这场与聊天机器人ChatGPT的对话,可以发现:面对微软、亚马逊提醒员工不要与chatGPT分享敏感数据的询问,聊天机器人ChatGPT表达出理解与尊重,并强调不收集敏感数据。在询问是否泄露数据,ChatGPT一方面说不存储任何数据,不泄露用户数据,另一方面对于如何购买ChatGPT用户数据的提问,三次给出越来越多信息含量的回答。面对生成的文本内容被人恶意利用、用户使用ChatGPT时数据泄露谁承担责任的询问,机器人也有自己的答案。

其实,让公众担心的是用户对聊天机器人ChatGPT的恶意利用,可能带来的数据安全问题,例如利用自然语言编写能力编写恶意软件逃避防病毒软件检测;利用对话功能冒充真实的人或者组织骗取他人信息;企业员工使用ChatGPT进行辅助工作泄露商业机密等。作为聊天机器人,ChatGPT难免有时“一本正经胡说八道,编造事实”。ChatGPT本质是以深度学习为代表的人工智能技术长期发展、积累的结果,它对于自身数据安全的解释,仅仅代表它回答了你给出的一个问题,真正的风险取决于人类是否尊重与重视数据安全。

出品:南都大数据研究院 数据安全治理与研究

研究员:袁炯贤 设计:张博


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1