当前位置:首页|资讯|OpenAI

沉默的OpenAI前员工,终于爆发了

作者:互联网法律评论发布时间:2024-06-06

《对先进人工智能发出警告的权利》原文截图

2024年6月4日,美国领先的人工智能公司OpenAI、谷歌DeepMind和Anthropic的一群现任和前任员工公开发表了一封信,警告先进人工智能的危险,并指出人工智能公司优先考虑经济利益、逃避监管,不仅向公众隐瞒先进人工智能的危险,而且禁止其员工自由发表言论。

这封题为《对先进人工智能发出警告的权利》的信共有13人签署,其中包括7名OpenAI前员工、4名现任员工(匿名),1名谷歌DeepMind现任员工(同时也是前Anthropic员工)和1名前员工。这封公开信还得到了人工智能先驱科学家 Yoshua Bengio 、 Geoffrey Hinton 和Stuart Russell的支持,前两人曾共同获得了计算机科学界的最高奖项。

长期以来,人工智能研究界一直在争论AI短期和长期风险的严重性,以及如何将这些风险与技术的商业化相协调。而且,正像这封信中所陈述,人工智能公司、各国政府以及很多人工智能专家已经承认了这些风险,并承诺为此加强人工智能公司的责任以及政府监管。

那么这封公开信,究竟有何价值?其捍卫权利的呼声及其所冒风险,揭示了人工智能开发领域怎样的隐秘?

一、内部博弈:安全性输给了经济利益

这封信背后的组织声称,人工智能公司掌握了他们正在研究的人工智能技术的真正风险所在,但由于他们不需要向政府披露太多信息,因此他们系统的真正能力仍是一个“秘密”。如果没有适当的监管,人工智能系统可以强大到足以造成严重危害,甚至“灭绝人类”。

作为普通公众,我们无从证实这个“秘密”究竟为何。但是,从最近一些公开的信息中可以看出,对于人工智能安全性这个问题,科技公司内部正在产生分歧甚至分裂,而且利润激励明显压倒了安全性担忧

过去几个月,OpenAI技术团队中安全方面的几位高层管理人员相继离职——除了Sutskever、Kokotajlo、Leike和Krueger,OpenAI至少有五名最注重安全的员工辞职或被解雇,包括前OpenAI董事会成员Helen Toner和Tasha McCauley。

Daniel Kokotajlo曾是 OpenAI 管理团队的成员,于今年4月辞职,他在个人博客中写道,由于对OpenAI 在发布日益强大的人工智能方面“负责任的行为”失去信心

OpenAI 联合创始人、前首席科学家Ilya Sutskever于5月离职,据报道,部分原因是首席执行官Altman急于推出人工智能产品,却忽视了安全工作

前DeepMind 研究员Jan Leike 辞去了安全研究职务,他在X上的一系列帖子中表示,他认为 OpenAI“没有走上正确解决人工智能安全问题的轨道”

图片来源:Ben Wilson | Windows Central

2024年5月28日,OpenAI成立了一个新委员会,负责监督与公司项目和运营相关的“关键”安全决策。但 OpenAI 选择让公司内部人员(包括Sam Altman自己)而不是外部观察员来担任委员会成员。

毫无疑问,OpenAI正在构建比人类更优秀的人工智能系统,然而根据经验,自治无法可靠地承受利润激励的压力。这正是伦理学家和公众应当担忧的所在。

二、离职后的控制:禁止员工自由发声、让秘密留在内部

仅仅通过排除异见者,并不能让关于“安全性”的秘密保留在公司内部。而这封公开信的核心,就在于多名现任和前任员工共同揭露了一个现实:保密和非贬低协议等组织管理手段束缚了他们的手脚,使员工们对AI发展前景最真切的担忧无法为公众所知,更让AI发展无法得到有效监管

据 Vox 报道,OpenAI员工必须在离职后一周内签署一份极其严格的“离职协议”——包含前 OpenAI 员工必须遵守的保密和不贬低条款——禁止他们在余生中批评他们的前雇主,而且即使承认保密协议的存在也是违反该协议的行为;如果离职员工拒绝签署,或者违反协议规定,他们可能会失去既得股权(可能价值数百万美元)。

用一笔可能改变人生的钱相威胁,是让前员工保持沉默的非常有效的方式,并且“在硅谷相当罕见”。

因此,这封公开信对先进的人工智能公司提出了四项要求:

停止强迫员工达成协议,阻止他们因“风险相关问题”批评雇主;

为员工建立匿名流程,以便他们向董事会成员和其他相关监管机构或组织提出担忧;

支持“公开批评文化”;

不要对在其他流程失败后分享“风险相关机密信息”的前任和现任员工进行报复。

真正深入到生成式人工智能研发工作的员工,他们的审慎和良知是AI安全防线最重要的一环,如果他们不能自由表达对安全的担忧,那么这个渠道就会被关闭,政府和公众的知情权就会受损。

三、警钟:AI从“生存威胁”转向“至关重要的商业机会”

正像《互联网法律评论》近期发布的文章《果然!美国限制AI出口立法进程又进一步》 中所述,随着微软和OpenAI、IBM、Meta、英伟达等美国科技公司加大对AI政治游说的投入资金,美国立法者开始更倾向于:人工智能与其说是一种生存威胁,不如说是一个重要的商业机会;严格的安全规则可能会限制美国的创新,并将使美国的人工智能优势拱手让给中国。

而且事实上,美国国会的很多议员已经放弃了他们曾经对这项技术的快速发展感到恐惧的语气,并公开质疑先进的人工智能模型是否真的那么危险。 

图:美国每年就人工智能相关问题进行游说的客户数量(来源:2024年5月29日美国公民倡导组织公共利益研究小组发布的《人工智能游说者来到华盛顿特区》)

从2023年3月微软裁撤了整个人工智能部门内道德与社会团队的事件,我们就看出,生成式人工智能巨大的经济诱惑直接影响了科技公司对安全工作的兴趣。而微软的这一理念,也经过Sam Altman戏剧性的离职和回归事件之后,完全融入了OpenAI的经营当中。

但是希望这封公开信能够成为响亮的警钟,让科技公司回想起他们宣言中的“透明和负责任”的承诺,也让立法者了解到他们尚未被告知的风险可能性,制定合理且适当的监管政策,使科技公司衡量发展和安全性时多一层外部监管的压力。

附:《对先进人工智能发出警告的权利》全文

对先进人工智能发出警告的权利

我们是前沿人工智能公司的现任和前任员工,我们相信人工智能技术有潜力为人类带来前所未有的利益。

我们也了解这些技术带来的严重风险。这些风险包括进一步加剧现有的不平等、操纵和误导信息,以及失去对自主人工智能系统的控制,可能导致人类灭绝。人工智能公司本身已经承认了这些风险,世界各国政府和其他人工智能专家也承认了这些风险。

我们希望,在科学界、政策制定者和公众的充分指导下,这些风险能够得到充分缓解。然而,人工智能公司有强烈的经济动机来逃避有效的监督,我们认为既定的公司治理结构不足以改变这一现状

人工智能公司掌握着大量非公开信息,包括其系统的能力和局限性、保护措施的充分性以及不同类型伤害的风险水平。然而,人工智能公司目前向政府分享信息强制性很弱,而对民间社会则没有任何义务。我们认为,不能指望它们都自愿分享这些信息。

只要政府对这些公司没有有效的监督,现任和前任员工就是少数可以要求他们向公众负责的人。然而,广泛的保密协议阻止我们表达我们的担忧,除非向那些可能未能解决这些问题的公司表达。普通的举报人保护措施是不够的,因为它们侧重于非法活动,而我们担心的许多风险尚未受到监管。鉴于整个行业都发生过此类案件,我们中的一些人有理由担心各种形式的报复。我们并不是第一个遇到或谈论这些问题的人。

因此,我们呼吁先进的人工智能公司遵守以下原则:

公司不应签订或执行任何禁止因风险相关问题而对公司进行“贬低”或批评的协议,也不会通过妨碍任何既得经济利益来报复与AI风险相关的批评;

公司应为现任和前任员工提供可验证的匿名流程,以便他们向公司董事会、监管机构以及具有相关专业知识的适当独立组织提出与AI风险相关的担忧;

公司应支持公开批评的文化,并允许其现任和前任员工向公众、公司董事会、监管机构或具有相关专业知识的适当独立组织提出对其AI技术的风险相关担忧,只要商业秘密和其他知识产权利益得到适当保护;

公司不应对在其他流程失败后公开分享风险相关机密信息的现任和前任员工进行报复。我们承认,任何报告风险相关问题的努力都应避免不必要地泄露机密信息。因此,一旦存在向公司董事会、监管机构和具有相关专业知识的适当独立组织匿名提出疑虑的适当流程,我们承认最初应通过此类流程提出疑虑。但是,只要不存在这样的流程,现任和前任员工就应保留向公众报告其疑虑的自由。

原文链接:https://righttowarn.ai/

本文来自微信公众号“Internet Law Review”(ID:Internet-law-review),36氪经授权发布。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1