IT之家 2 月 23 日消息,据 Business Insider 报道,亚马逊公司内部邮件警告员工,禁止将第三方生成式 AI 工具用于工作目的。
据 Business Insider 获得的内部文件显示,亚马逊在一封邮件中警告员工称:“虽然生成式 AI 工具看起来似乎能让我们更轻松地工作,但我们必须确保不要将其用于包含亚马逊机密信息的任何工作。”邮件同时强调:“在使用第三方生成式 AI 工具时,切勿分享任何亚马逊、客户或员工的机密数据。通常情况下,机密数据是指非公开数据。”
图源 Pexels
亚马逊内部对于第三方生成式 AI 使用和交互的政策文件中指出,提供生成式 AI 服务的公司可能会对员工输入的数据(例如 OpenAI 的 ChatGPT 工具)主张许可权或所有权。该政策明确表示:“这意味着生成式 AI 所有者可能会提取、审查、使用和分发任何输出结果,包括电子邮件、常见问题解答、内部 wiki 页面、代码、机密信息、文档、预发布和战略材料。因此,所有亚马逊员工在使用生成式 AI 时,必须遵守亚马逊关于机密信息和安全方面的标准政策。”
去年同期,亚马逊的一位公司律师非正式地警告员工,不要向 OpenAI 的 ChatGPT 提供任何亚马逊机密信息,包括正在开发的亚马逊代码。他表示,曾有案例显示,ChatGPT 的回复与亚马逊内部数据相似。据内部消息,当时亚马逊员工已经将 AI 工具用作软件“编码助手”。
随着生成式 AI 工具变得越来越普遍,如何处理机密信息以及输入和输出信息的所有权等问题,在很大程度上仍未得到解决。亚马逊对此可能格外敏感,因为其主要竞争对手微软不仅大量投资了 OpenAI,而且还拥有自己的生成式 AI 产品。
尽管亚马逊此前曾禁止员工使用微软软件,但最近有所缓和。据 Business Insider 报道,亚马逊最近与微软签署了价值 10 亿美元(IT之家备注:当前约 72 亿元人民币)、为期五年的 Microsoft 365 许可协议。
亚马逊内部生成式 AI 政策规定,员工在获得主管和法律部门批准以及遵守相关安全审查的情况下,可以使用第三方模型用于工作。最近的电子邮件还指出,部分员工可以使用亚马逊内部工具 Bedrock,该工具被认为是“更安全的替代方案”。
亚马逊发言人亚当・蒙哥马利 (Adam Montgomery) 表示,亚马逊公司一直在开发生成式 AI 和大型机器学习模型,员工每天都在使用其 AI 模型,“我们已经为员工使用这些技术制定了相应的安全措施,包括访问第三方生成式 AI 服务和保护机密信息的指导。”