当前位置:首页|资讯|ChatGPT|OpenAI

南非隐私泄露:雇主是否应禁止工作场所使用ChatGPT?

作者:GONEX发布时间:2023-11-30

原标题:南非隐私泄露:雇主是否应禁止工作场所使用ChatGPT?

OpenAI是ChatGPT的创造者,最近宣布它的聊天机器人现在可以访问更多的最新信息。OpenAI聊天机器人现在将拥有到2023年4月的世界知识。当这个聊天机器人于2022年11月首次发布时,它只能获取到2021年9月的信息。 尽管之前存在“信息黑洞”,ChatGPT在推出5天内仍然达到了100万用户。随着OpenAI最近的声明,ChatGPT的受欢迎程度很可能会再次增加。尽管令人兴奋,但聊天机器人的日益普及和使用也是雇主应该在工作场所监控的事情。

为什么雇主要担心呢?

在快速发展的数字环境中,敏感数据的保护已成为大多数雇主关注的关键问题。网络安全风险公司的官方网络犯罪报告2022(Official Cybercrime Report 2022)指出,到2023年,全球网络犯罪的年度成本预计将达到8万亿美元。人工智能会话泄露也变得越来越频繁,加剧了雇主对数据隐私的担忧。

什么是会话式AI泄漏?

“会话AI泄漏”是一个用于描述涉及聊天机器人的数据丢失的短语。这些泄漏涉及敏感数据/信息的事件,这些数据/信息被输入ChatGPT等聊天机器人,无意中暴露。当信息被披露给聊天机器人时,这些信息被发送到第三方服务器,并用于进一步训练聊天机器人。简单来说,这意味着输入到聊天机器人的信息可能会被聊天机器人在未来使用。当聊天机器人访问并使用不应公开的机密或敏感信息时,这就变得尤其成问题。

仅在过去的几个月里,就有多家科技巨头在对话式人工智能泄露后,禁止员工使用生成式人工智能工具。在这方面,员工在使用聊天机器人来(i)识别源代码中的错误时意外泄露了敏感的公司数据;(ii)优化源代码;(iii)根据上传的录音生成会议记录。还有其他员工与聊天机器人共享内部文件的事件。

雇主如何监管和控制在工作场所使用生成式人工智能?

从历史上看,雇主唯一的选择是禁止使用ChatGPT进行特定的与工作相关的任务或查询。然而,可能有一个替代或额外的选择。OpenAI现在推出了一项新技术,使个人和雇主不仅可以创建自己的聊天机器人,还可以保护他们接受培训的信息。由于多种原因,这种创新是有价值的,但在这种情况下,它可能会降低在某些情况下会话AI泄漏的风险。

需要指出的是,这些聊天机器人的表现只能和输入的信息一样好,它们不太可能解决员工可能遇到的每一个问题,也不可能为员工可能想要找到的每一个捷径提供解决方案。这意味着员工总是有向其他聊天机器人寻求帮助的风险。因此,雇主和雇员都应该对他们的信息来源以及在这个过程中分享了哪些信息保持谨慎。

因此,到目前为止,我们从对话式AI泄漏中获得的经验应该是:

雇主:

首要任务确保数据安全;

确保你负责任地定制你的个性化聊天机器人;

培训员工如何负责任地使用聊天机器人;

监控聊天机器人遵守隐私法规和数据保护措施的情况;

员工:

要注意与聊天机器人分享信息的敏感性;

确认聊天机器人反应的准确性,特别是在反应可能影响关键决策的情况下;

熟悉可接受的聊天机器人用法;

使用聊天机器人时报告任何安全或隐私问题的顾虑。

在试图利用不断发展的生成式人工智能空间的潜力,同时保护数据隐私和安全时,上述要点值得考虑。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1