当前位置:首页|资讯|ChatGPT

中国通提醒:别和ChatGPT等机器人聊隐私,后果不堪设想!

作者:中新国京传媒发布时间:2023-03-28

原标题:中国通提醒:别和ChatGPT等机器人聊隐私,后果不堪设想!

时下互联网的“顶流”AI应用是什么?

毋庸置疑,大部分人都会给到同一个答案:ChatGPT。撰写邮件、代写论文、写代码、能写书、能做题、会翻译、可互动……这是堪称完美的“全能网友”,也是互联网历史上增长最快的消费应用程序。

但就在3月20日,ChatGPT临时中断服务,OpenAI官方发布公告并表示:有1.2%的ChatGPT Plus用户可能数据被泄露。

一、ChatGPT数据泄露事故

根据OpenAI官网公告,这次数据泄露事故起源于一个名为Redis-py的开源库,因缓存发生错误,导致部分用户可以看得到其他用户的历史对话记录,甚至部分活跃用户可以看到其他用户的隐私信息,包括姓名邮箱地址付款地址信用卡后四位数字

当然,为了防止此类事情再次发生,OpenAI也在公告里说明他们已经采取了相关行动,并切实地解决了问题。但网友们已经无法抑制地对ChatGPT 的安全性产生了质疑。Open AI CEO Sam Altman更是在当天立刻接受了媒体专访,并多次强调“AI安全”

二、潜在风险盘点

毫无疑问,随着ChatGPT、文心一言、Bard等AI产品的推出,搭载了大型语言模型的聊天机器人必将成为未来常见的应用场景。在感叹其便捷的同时,我们同样应该关注,在使用过程中可能会带来的风险与弊端。

(一)数据安全风险

数据被称为21世纪的“石油”,战略重要性更是逐日凸显,安全风险更是重中之重。以ChatGPT用户数据泄漏事故为例,在使用AI产品的过程中,相关个人、金融、商业隐私等的敏感信息数据存储于各个AIGC公司的数据库中,一旦泄露容易对用户的个人隐私安全造成威胁。

(二)虚假、违法信息传播风险

AI产品的开发和改进需要一个包含公众反馈的迭代过程,而当下市场上的产品架构远远未到成熟阶段,不可避免地存在漏洞。一旦被攻击者利用,加入伪装数据或者恶意样本,会让模型产生不正确或误导性的结果,甚至可能生成虚假信息、诱骗信息等不良信息,破坏网络舆论生态。

而这种看似正确、实则“一本正经的胡说八道”的回复,在商业化中会造成严重后果,甚至有法律风险。例如谷歌机器人Bard,就曾在一次测试演示中,给出重大错误答案,直接导致其母公司市值蒸发千亿美元。而根据OpenAI的官网说明,尽管ChatGPT会尽量拒绝用户不合理的请求,但ChatGPT生成的内容仍有可能存在着包含种族歧视或性别歧视、暴力、血腥、色情等对法律和公序良俗造成挑战的内容。

(三)知识产权/著作权侵权风险

AI产品,尤其是聊天机器人的答案生成需要依托于海量的文本数据,通过对数据集进行监督学习、强化学习从而优化输出的内容。而这一生成过程及其生成结果均存在着著作权侵权风险:生成过程不可避免会涉及到对他人享有著作权的作品的使用,生成的内容可能与原始作品过于相似被认定为“实质性相似”。

(四)深度伪造风险

AI产品还存在着被用于制作虚假的文本、音频、视频等深度伪造的内容的风险。例如AI换脸、语音模拟、人脸合成、视频生成等深度伪造技术应用场景。一旦被某些群体的恶意运用,不仅可能造成人们对媒体的不信任,更可能对社会正常秩序产生不可挽回的损害。

如何安全、正确地使用AI产品?

阿新想,这将成为我们在当下及未来相当长一段时间应该重视的问题


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1