当前位置:首页|资讯|OpenAI|阿尔特曼

5月水逆!OpenAI与奥特曼近期所有丑闻指控时间线

作者:鞭牛士发布时间:2024-06-08

鞭牛士报道,6月8日消息,据外电报道,最近几周对 OpenAI 来说并不友好。该公司最新模型 GPT-4o 的发布在一定程度上因针对该公司及其首席执行官Sam Altman的一系列指控而黯然失色。

指控包括优先考虑产品开发而非安全,以及未经演员斯嘉丽约翰逊同意使用她的声音。与此同时,包括联合创始人兼首席科学家伊利亚苏茨克韦尔在内的几名知名员工选择离开公司。

这并不是这家硅谷初创公司第一次卷入丑闻。去年 11 月,董事会发现 Altman 对他们不够坦诚,因此他被短暂驱逐出公司。在大多数员工的支持下,他在被解雇五天后重返公司。董事会随后重组, Altman于 3 月再次被任命为董事会成员。

随着 OpenAI 开发的这类人工智能系统变得越来越强大,它们既可能带来巨大的好处,也可能带来严重的风险。

例如,许多专家认为它们可能被用于大规模犯罪或恐怖活动。与此同时,OpenAI 表示,其使命是打造通用人工智能(AGI)——一种可以比人类更好地完成几乎所有具有经济价值的任务的推测性技术——以造福全人类的方式。

最近发生的事件使人们对该公司是否值得信任,是否会为实现这一崇高目标采取负责任的行动产生怀疑,并导致许多人强调人工智能领域监管的必要性。

以下是最近针对 OpenAI 和 Sam Altman 的所有指责的时间表。

5 月 17 日:高级安全研究员 Jan Leike 批评 OpenAI 优先考虑产品而非安全

5 月 15 日,Jan Leike 从 OpenAI 辞职后,他在 X(原 Twitter)上分享的一篇帖子中解释了自己的决定,他写道:安全文化和流程已经让位于闪亮的产品。Leike和 OpenAI 首席科学家 Sutskever 同一天离职。两人共同领导了超级对齐团队,这是 OpenAI 三个安全团队中最新的一个。虽然该公司的其他安全小组专注于人工智能系统在短期至中期内带来的风险,但超级对齐团队成立于 2023 年 7 月,旨在设计控制假设的未来人工智能系统的方法。

雷克表示,几个月来,该团队一直在逆风航行,难以获得研究所需的计算能力——尽管 OpenAI承诺向该团队提供其总计算资源的五分之一。几天后,多位消息人士向《财富》杂志证实,OpenAI 未能信守承诺。自 3 月以来,超级对齐团队还失去了至少三名员工,其中两人因涉嫌泄露信息而被解雇。由于联合领导人雷克和苏茨克弗不再掌舵,超级对齐团队解散了。

Altman 回应说,他感谢 Leike 的贡献,并承认还有很多安全工作要做。在后续帖子中,Altman 和 OpenAI 总裁 Greg Brockman 阐述了他们未来的愿景,称「我们非常重视我们在这里的角色,并仔细权衡对我们行动的反馈。」Leike 随后宣布他已加入竞争对手AI 实验室 Anthropic,以继续超级对齐任务。

5 月 17 日:OpenAI 因使用限制性协议压制前员工言论而受到批评

5 月 17 日,Vox报道了 OpenAI 为压制批评而使用的极其严格的离职协议。据报道,为了保留员工累积的既得股权,他们被要求签署一份协议,其中包含禁止他们批评前雇主的非贬损条款,以及禁止他们提及协议存在的保密条款。这件事是在一名前员工 Daniel Kokotajlo 在一个在线论坛上发帖表示拒绝签署后曝光的。

Kokotajlo 在 X 上分享的一系列帖子中表示:我告诉 OpenAI 我不能签署,因为我认为这项政策不合道德;他们接受了我的决定,然后我们就分道扬镳了。

第二天,Altman 在 X 上否认对这些条款有任何了解,并表示,这是我的责任,也是我为管理 OpenAI 而感到的少数尴尬之一;我不知道发生了这种事,我应该知道的。

Altman 还在同一篇帖子中表示,他们从未收回任何人的股权,也没有打算这样做。

OpenAI 随后在发给现任和前任员工的信息中确认,这些规定将不再执行,并且他们将从今后的所有离职文件中删除这些令人反感的措辞。彭博社看到了这些信息。

5 月 22 日,泄露的文件显示,在明确授权这些条款的文件上有奥尔特曼以及 OpenAI 首席战略官 Jason Kwon 和首席运营官 Brad Lightcap 等其他高管的签名。奥尔特曼否认的可信度因此受到质疑。

5 月 20 日:斯嘉丽·约翰逊批评 OpenAI 未经同意模仿她的声音

当 OpenAI 演示其最新模型 GPT-4o 时,该模型可以实时以类似人类的声音响应语音,许多人对其中一个声音(Sky)的熟悉程度感到震惊。听众认为 Sky 的声音与 2013 年科幻电影《她》中约翰逊饰演的萨曼莎的声音相似。在 GPT-4o 演示的几天前,Altman 在推特上发布了「她」,并在个人博客上写道,与该模型互动感觉就像电影中的人工智能一样。

5 月 20 日,约翰逊发表声明称,她「震惊、愤怒,难以置信」奥特曼竟然未经她同意就使用与她如此相似的声音。她解释说,奥特曼曾多次联系她,试图聘请她为 GPT-4o 配音,但她拒绝了。这位演员说,在演示版本发布前两天,她再次被联系,要求她重新考虑。

在 OpenAI 网站上发布的回应中,Altman表示:Sky 的声音不是斯嘉丽约翰逊的声音,我们从未打算模仿她。我们在联系约翰逊女士之前就已经选定了 Sky 的配音演员。出于对约翰逊女士的尊重,我们已暂停在我们的产品中使用 Sky 的声音。我们很抱歉未能与约翰逊女士进行更好的沟通。

法律并未明确规定雇用演员模仿其他演员的声音是否构成侵犯版权。

5 月 22 日:人工智能政策研究员 Gretchen Krueger 解释辞职原因

5 月 22 日,人工智能政策研究员 Gretchen Krueger(于 5 月 14 日辞职)除了解释辞职原因的声音外,还表示OpenAI 需要做更多工作来改进基础性的事情,例如决策流程、问责制、透明度、文档、政策执行、我们使用自己的技术的谨慎程度,以及减轻对不平等、权利和环境的影响。

5 月 26 日:前董事会成员指责 Sam Altman 撒谎

去年 11 月,OpenAI 董事会解雇了 Altman,他们对这一决定做出了一个有点神秘的解释,称 Altman在与董事会和 OpenAI 团队的沟通中并不总是坦诚相待。在OpenAI 约 770 人的团队中,有 700 多人威胁说,如果 Altman 不复职,他们将跟随 Altman 去微软,之后 Altman 被重新任命为首席执行官,而要求解雇他的两名董事会成员也辞职了。

威凯平和而德律师事务所随后对此事展开调查,发现他的行为不值得被免职。但被免职的董事会成员对他们的说法守口如瓶。

5 月 26 日,情况发生了改变,当时前董事会成员海伦·托纳 (Helen Toner) 和塔莎·麦考利 (Tasha McCauley)在《经济学人》上发表了一篇专栏文章,指责奥特曼撒谎并对部分员工(包括向董事会表达担忧的高层员工)进行心理虐待。

OpenAI 的新公司结构(一家上限为营利的公司,最终由一家非营利组织控制)旨在让董事会在认为公司未能坚持其最初的使命(即为人类的最大利益行事)时能够果断采取行动。但根据 Toner 和 McCauley 的说法,Altman 忽视了分享关键信息,这让董事会的角色变得困难。

托纳在TED AI 秀上详细阐述了这一点,他解释说,奥尔特曼直到 4 月才披露他合法控制着OpenAI 创业基金,而是反复告诉公众他没有公司的任何财务股份。董事会在 ChatGPT 发布之前也没有得到通知,而 ChatGPT 后来成为了公司的旗舰产品。托纳还表示,奥尔特曼曾多次就公司的正式安全流程提供虚假信息,并且在她发表了一篇他不同意的论文后,他曾试图将她赶出董事会。她总结说,OpenAI 的自治实验失败了,并呼吁进行监管监督。

四天后,OpenAI 的两位现任董事会成员 Bret Taylor 和 Larry Summers驳斥了Toner 和 McCauley 的说法,称 Altman 非常坦率。他们坚称 OpenAI 是安全方面的领导者,并引用了 WilmerHale 的内部调查,该调查的结论是,Altman 被解雇并非出于安全问题。

6 月 4 日:11 名现任和前任员工签署公开信,批评 OpenAI 和 Google DeepMind 等先进人工智能公司培育鲁莽的文化

6 月 4 日,13 名先进人工智能公司的现任和前任员工(其中 11 名来自 OpenAI,2 名来自谷歌 DeepMind)发表了一封信,谴责人工智能公司缺乏问责制,并呼吁加强对举报人的保护。

信中指出,人工智能公司有强烈的经济动机来逃避有效的监管,而信中作者认为定制的公司结构不足以解决这个问题。信中还指出,在缺乏有效的政府监管的情况下,当这些公司从事危险行为时,公司员工是唯一有能力追究其责任的人。由于行业内广泛使用保密协议,员工这样做的能力受到了阻碍。

这封信的签署人之一、一致性研究员卡罗尔·温赖特(Carroll Wainwright)对 X 进行了详细阐述,他表示:我担心董事会无法有效地控制营利性子公司,我担心在利润最大化的动机如此强烈的情况下,营利性子公司无法有效地优先考虑使命。

信中呼吁人工智能公司承诺不签订限制员工批评能力的法律协议;促进员工向公司董事会、政府或适当的独立组织匿名报告问题;支持公开批评的文化;并承诺在员工与公众分享机密信息且其他报告程序失败的情况下不会对员工进行报复。

OpenAI 的一位发言人在给《纽约时报》的回复中表示:我们为我们提供最强大、最安全的人工智能系统的记录感到自豪,并相信我们应对风险的科学方法。我们同意,鉴于这项技术的重要性,严谨的辩论至关重要,我们将继续与世界各国政府、民间社会和其他社区接触。

谷歌 DeepMind 未对这封信发表评论。

OpenAI 的一些员工对这封信提出了批评。该公司的研究科学家 Joshua Achiam在 X 上表示,这封信破坏了当今该领域和 AGI 前沿实验室员工之间存在的微妙而重要的信任平衡。

特别是,Achiam 认为,允许安全研究人员拥有广泛的自由裁量权来决定是否有必要向公众披露机密信息会破坏实验室内部的信任,最终不利于安全。

6 月 4 日:前 OpenAI 安全研究员 Leopold Aschenbrenner 表示,他因向 OpenAI 董事会提出安全问题而被解雇

在接受Dwarkesh Podcast采访时,前 OpenAI 安全研究员 Leopold Aschenbrenner 解释了导致他被公司解雇的事件,并对公司进行了批评。

他说,他首先因与 OpenAI 董事会分享一份内部备忘录而收到正式警告,备忘录中他批评该公司为保护“模型权重或关键算法机密不被外国势力窃取”而采取的安全措施不足。

阿申布伦纳声称,最终导致他被解雇的行为相对无害。根据他的说法,他与外部研究人员分享了一份他撰写的关于安全的文档,该文档已删除敏感信息,以征求反馈。阿申布伦纳说,这在当时的 OpenAI 中完全正常。然而,OpenAI 的领导层认为该文件泄露了有关他们在 2027/2028 年开发 AGI 的计划的机密信息。阿申布伦纳声称这些信息已经公开;事实上,奥尔特曼在 2023 年的一次采访中告诉《时代》杂志类似的时间框架。

Aschenbrenner 曾是 OpenAI 现已解散的超级对齐团队的研究员。在 Sutskever 和 Leike 离职之前,他并不是唯一一位离开公司的超级对齐团队成员。

根据 5 月份他在 LinkedIn 个人资料上分享的更新,研究员 Pavel Izmailov 现在在人工智能实验室 Anthropic 工作。与此同时,William Saunders 于 2 月从 OpenAI 辞职。该公司另一位对齐研究员 Ryan Lowe 于3 月离职。这表明超级对齐团队和 OpenAI 领导层之间的摩擦已经酝酿了数月,直到 5 月初联合领导人 Sutskever 和 Leike 辞职时才达到临界点。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1