鞭牛士报道,8月3日消息,据外电报道,在举报人向美国证券交易委员会 (SEC) 指控人工智能公司OpenAI的保密协议非法阻止员工向立法者披露重大安全问题后,OpenAI 面临越来越大的压力,需要证明其没有隐瞒人工智能风险。
在昨天致 OpenAI 的一封信中,参议员查克·格拉斯利 (Chuck Grassley)(爱荷华州共和党议员)要求提供证据,证明 OpenAI 不再要求签署可能阻碍其员工向政府监管机构进行受保护披露的协议。
具体来说,格拉斯利要求 OpenAI 提供当前的就业、遣散、非贬损和保密协议,以向国会保证合同不会阻碍披露。
格拉斯利说,这至关重要,这样我们才有可能依靠揭露新兴威胁的举报人来帮助制定有效的人工智能政策,以防范技术进步带来的现有人工智能风险。
格拉斯利的信中说,他显然已经两次要求 OpenAI 提供这些记录,但均未得到回应。
格拉斯利的发言人克莱尔·斯莱特里 (Clare Slattery)告诉《华盛顿邮报》,到目前为止,OpenAI 尚未回应最近一次发送文件的请求。
「仅仅声称自己做了更新是不够的。」格拉斯利在提供给 Ars 的一份声明中表示。「事实胜于雄辩。奥尔特曼需要提供记录并回应我的监督请求,这样国会才能准确评估 OpenAI 是否充分保护了其员工和用户。」
除了要求 OpenAI 最近更新员工协议外,格拉斯利还敦促 OpenAI 更加透明地公开自 2023 年以来员工寻求进行联邦披露的请求总数。
参议员想知道员工想要向官员披露哪些信息,以及 OpenAI 是否真的批准了他们的请求。
同样,格拉斯利要求 OpenAI 确认自 2023 年以来 SEC 对 OpenAI 展开了多少调查。
综合起来,这些文件将会揭示 OpenAI 员工是否仍然被禁止向联邦披露信息、OpenAI 否认哪些类型的披露,以及 SEC 对 OpenAI 隐藏安全风险的监视程度如何。
格拉斯利在信中写道:OpenAI 必须确保其员工能够提供受保护的披露而不受非法限制。
他已要求 OpenAI 在 8 月 15 日之前做出回应,以便国会可以对 OpenAI 的安全协议和保密协议进行客观和独立的监督。
OpenAI 尚未立即回应 Ars 的评论请求。
在 X 上,Altman写道,OpenAI 已采取措施提高透明度,包括与美国人工智能安全研究所达成协议,我们将提供对我们下一个基础模型的早期访问权限,以便我们共同推动人工智能评估科学的发展。
他还证实,OpenAI 希望现任和前任员工能够提出顾虑,并感到安心。
奥尔特曼写道:这对任何公司来说都至关重要,但对我们尤其如此,这是我们安全计划的重要组成部分。5 月份,我们取消了对现任和前任员工的非贬损条款,以及赋予 OpenAI 取消既得股权权利(尽管从未使用过)的条款。我们一直在努力纠正这一点。
7 月,举报人向美国证券交易委员会表示,OpenAI 不仅应该被要求提供当前员工合同,还应该提供所有包含保密协议的合同,以确保 OpenAI 没有掩盖历史或当前掩盖人工智能安全风险的做法。他们希望所有现任和前任员工都能收到任何包含非法保密协议的合同的通知,并要求 OpenAI 因每一份非法合同而被罚款。
Sam Altman 被指对人工智能安全问题不以为然
不过,要求 OpenAI 提高透明度的呼声不只限于立法者。在 Grassley 发出公开信的前一天,OpenAI 首席执行官 Sam Altman在 X 上发布了一份声明,声称 OpenAI 自去年 7 月以来已为安全工作投入了充足的资源,但 X 事实核查人员在评论中称,这份声明具有误导性,引发了公众的强烈抗议。
奥尔特曼写道:正如我们去年 7 月所说的那样,我们致力于将至少 20% 的计算资源分配给整个公司的安全工作,这引发了社区的关注,很多有偏见的 X 读者都认为这提供了更多背景信息。
社区说明指出,Altman 指的是 7 月份的一篇博客,其中明确确认 OpenAI 正在将 20% 的计算资源分配给其超级对齐团队。由于该团队现已解散,负责超级对齐的首席科学家也离开了公司,X 评论员称 Altman 的说法误导了公众,误导公众了解 OpenAI 现在定义模糊的安全工作实际上分配了哪些计算资源。
一些 X 评论者要求提供有关 OpenAI 目前安全工作内容的更多细节。在 7 月 31 日回复其他五位参议员关于 AI 安全问题的一封信中,OpenAI 对其安全工作进行了更详细的解释。该公司还澄清了 Altman 的说法,即 X 已将其标记为需要“更多背景信息”,并写道,博客中提到的计算资源绝不应该只指超级对齐团队。
OpenAI 在致参议员的信中表示:为了进一步推进我们的安全研究议程,去年 7 月我们承诺在多年内将至少 20% 的计算资源分配给人工智能安全。这一承诺始终适用于整个公司的安全工作,而不仅仅是某个特定团队。
这让一些人感到困惑,因为 OpenAI 的博客明确表示,OpenAI 将在未来四年内,将我们迄今为止获得的计算资源的 20% 用于解决超级智能协调问题。当时,OpenAI 表示,其主要的基础研究赌注是其前超级协调团队,「该团队需要计算资源,因为做好这件事对于实现我们的使命至关重要。」
One X 用户 @AISafetyMemes 向 OpenAI 询问,如果超级对齐是迄今为止最重要的问题,以防范 AI 风险,那么为什么它将计算资源从超级对齐转移出去,并且转移到整个公司。
OpenAI 尚未对该 meme 账户做出回应,但此前曾表示超级对齐团队对人工智能安全至关重要,因为社会需要科学和技术突破来引导和控制比我们更聪明的人工智能系统。
OpenAI 详细介绍了安全举措
在 OpenAI 致参议员的信中,首席战略官 Jason Kwon 告诉议员们,OpenAI 通过与外部专家合作评估和红队我们的模型来防范风险。 其中包括咨询 100 多名外部专家,他们帮助评估与我们的最新模型 GPT-4o相关的风险。
Kwon 写道:红队测试的发现和安全缓解措施在我们模型附带的系统卡中公开提供,OpenAI 已经发表了关于“衡量与人工智能系统相关的化学、生物、放射和核 (CBRN) 风险”、估计不同职业和行业可能受到语言模型影响的程度、评估语言模型对影响操作的影响以及解释人工智能系统决策的可解释性的研究。
为了进一步确保 AI 的安全,Kwon 表示,OpenAI 会进行迭代部署,先向有限群体发布 Sora 视频模型或语音引擎等新功能,然后再向公众广泛发布。
Kwon 写道:这一策略使我们能够从 OpenAI 以外的人那里获得反馈,根据需要更新我们的安全护栏,并在完全开放我们的模型之前让公众了解即将推出的 AI 功能。
对于开发新功能或新模型的员工,如果员工仍然担心因提出安全问题而遭到报复,Kwon 表示,OpenAI 于 3 月开通了诚信热线。通过该渠道,员工可以在不愿意通过其他现有渠道提出问题时匿名报告问题。
尽管 OpenAI 表示员工可以自由地谈论任何担忧,但很明显,如果 OpenAI 认为某些信息存在安全风险,则仍然不能共享。
Kwon 写道:OpenAI 继续区分提出担忧和泄露公司商业机密。根据现任和前任员工的保密协议,后者(受保护的披露权利)仍然被禁止。我们认为,鉴于我们的技术对美国国家安全的影响,这一禁令尤为重要。
考虑到这一例外情况允许 OpenAI 否认一些联邦披露信息,格拉斯利很可能希望查明 OpenAI 是否可能以保护商业机密为由不正当地否认披露信息。
格拉斯利的信中明确表示,参议员担心公司自我监督安全存在风险。