近日,以色列风险投资公司Team8警告称,使用包括ChatGPT在内的生成式人工智能工具,可能会使公司将客户敏感信息和商业机密置于风险之中。
据香港IDC新天域互联了解,随着微软和Alphabet等公司竞相推出自己的生成式人工智能工具,也使人们也对此产生隐忧,担心聊天机器人被黑客利用访问公司的敏感数据,亦或是在向机器人输入数据时,其信息被人工智能公司所使用。
该报告提到,如果企业向这些生成式人工智能工具提供公司机密或客户私人数据,那么将很难删除这些信息。虽然大型语言模型无法做到为自身进行实时更新,即无法将一名用户输入的信息实时显现在对另一名用户的回答中,但该模型的未来版本却无法保证这一点的安全性。
此外,该报告还列举其他有关使用生成式人工智能工具所产生的风险。由于微软在其Bing及Microsoft 365等工具中嵌入了人工智能聊天工具,此举可能导致信息通过第三方应用程序被共享。一旦黑客对该第三方应用程序进行攻击或破坏,可能获取到对浏览器和电子邮件的访问权限。
并且报告还表示,使用生成人工智能工具可能会增加歧视、损害公司声誉或使其因版权问题而面临法律诉讼。
微软公司副总裁Ann Johnson参与起草了此份报告,其他数十名美国公司首席信息安全官也被列为此报告的贡献者。