财联社3月14日讯(编辑 周子意)英国情报机构——英国政府通讯总部(GCHQ)周二(14日)警告称,ChatGPT和其他人工智能聊天机器人将是一个新的安全威胁。
GCHQ是一个国家安全机关,负责通讯侦察、邮件检查的情报机构,它与英国著名的军情五处(MI5)和六处(MI6)统称为英国情报机构的“三叉戟”。
初创公司OpenAI于去年年底推出ChatGPT,此后,其投资商微软于今年2月推出了基于ChatGPT技术开发的聊天机器人“必应聊天(Bing Chat)”。由于此类软件能够提供酷似人类的对话,目前这项服务已风靡全球。
GCHQ的网络安全部门指出,提供(AI聊天机器人)的公司可以看到用户输入的查询内容,就ChatGPT而言,其开发商OpenAI就能够看到这些。
此外,英国国家网络安全中心(NCSC)在周二发布的一份咨询报告中也写道,OpenAI、微软等公司“能够读取”用户在人工智能聊天机器人中输入的查询内容。
NCSC警告,办公室职员在尝试新颖的聊天机器人技术时,很可能会通过他们的搜索查询泄露出敏感的信息。
需要监控使用
GCHQ的网络安全专家在谈到人工智能聊天机器人背后的大型语言模型(LLM)技术时表示,“用户的这些查询内容将会被存储起来,并且几乎肯定会在未来某个时候被用于开发LLM服务或模型。”
这就意味着,LLM提供商能够读取到相关查询,并可能以某种方式将它们合并到未来的版本中。
微软今年2月披露,其员工正在阅读用户与必应聊天的对话,监控对话以发现“不当行为”。
网络安全公司Sectigo的高级安全经理Immanuel Chavoya表示,“尽管LLM运营商应该采取措施保护数据,但不能完全排除未经授权访问的可能性。”
“因此,企业需要确保他们有严格的政策,提供技术性支持,来监控LLM的使用,以最大限度地降低数据暴露的风险。”
公司警惕心加重
世界各地的公司对聊天机器人技术越来越警惕。
伦敦金融城律师事务所Mishcon de Reya禁止其律师将客户数据输入ChatGPT,因为担心在法律上享有隐私特权的资料可能会遭泄露。
国际咨询公司埃森哲警告其全球70万名员工,出于类似的原因,不要使用ChatGPT,因为担心客户的机密数据最终会落入他人之手。
英国电脑芯片公司Arm的母公司日本软银集团同样警告其员工,不要向人工智能聊天机器人输入“公司人员的身份信息或机密数据”。
(财联社 周子意)
IT之家 2024-12-22
IT之家 2024-12-22
36氪 2024-12-22
IT之家 2024-12-22
IT之家 2024-12-22