当前位置:首页|资讯|OpenAI|阿尔特曼

前高管称OpenAI缺乏透明度:奥特曼培养有毒谎言文化

作者:鞭牛士发布时间:2024-05-28

前高管称OpenAI缺乏透明度:奥特曼培养有毒谎言文化

鞭牛士报道,5月28日消息,据外电报道,由于首席执行官 Sam Altman 的领导能力受到批评, OpenAI前董事会成员呼吁政府加强对该公司的监管。
海伦·托纳 (Helen Toner) 和塔莎·麦考利 (Tasha McCauley) 是11 月罢免奥尔特曼的几名前雇员中的两位。
她们表示,她们决定罢免这位领导人并挽救OpenAI 的监管结构,是受到奥特曼先生长期以来表现出的行为模式的刺激,这种行为破坏了董事会对关键决策和内部安全协议的监督。
托纳和麦考利在 5 月 26 日《经济学人》发表的一篇专栏文章中指出,奥特曼的行为模式加上对自我管理的依赖,是导致 AGI 灾难的根源。
虽然两人表示,他们加入 OpenAI 时对未来持谨慎乐观的态度,当时这家非营利性公司看似利他,但两人后来对 Altman 和公司的行为提出了质疑。
他们写道:多位高层领导曾私下向董事会表达了严重担忧,他们表示,他们认为 Altman 先生培养了一种有毒的谎言文化,并从事了可以定性为心理虐待的行为。
他们继续说道:他重返公司后的发展——包括他重返董事会和高级安全人才的离职——对 OpenAI 的自治实验来说是一个坏兆头。即使出于最好的意图,如果没有外部监督,这种自我监管最终也将无法执行,尤其是在巨大的利润激励压力下。政府必须发挥积极作用。
回想起来,托纳和麦考利写道:如果有任何公司能够在安全且合乎道德地开发先进的人工智能系统的同时成功地进行自我管理,那就是OpenAI。
在联邦法律停滞不前的情况下,前董事会成员反对当前推动人工智能公司自我报告和相对最低限度的外部监管的做法。
在国外,人工智能工作组已经发现依靠科技巨头带头开展安全工作存在缺陷。上周,欧盟向微软发出了 10 亿美元的警告,原因是该公司未能披露其人工智能驱动的 CoPilot 和 Image Creator 的潜在风险。
英国人工智能安全研究所最近的一份报告发现,几个最大的公共大型语言模型 (LLM) 的安全措施很容易被恶意提示越狱。
最近几周,OpenAI 成为人工智能监管讨论的焦点,此前该公司多名高级员工因对未来持有不同看法而高调辞职。在联合创始人兼超级协调团队负责人 Ilya Sutskever 及其联合领导人 Jan Leike 离开公司后,OpenAI 解散了其内部安全团队。
Leike 表示,他对 OpenAI 的未来感到担忧,因为安全文化和流程已经让位于闪亮的产品。
奥特曼因当时披露的一项公司离职政策而受到批评,该政策迫使离职员工签署保密协议,禁止他们发表任何有关 OpenAI 的负面言论,否则将面临失去其在公司所持有的任何股权的风险。
不久之后,Altman 和总裁兼联合创始人 Greg Brockman在 X 上回应了这一争议:未来将比过去更加艰难。我们需要不断提升我们的安全工作,以匹配每种新模式的风险……我们还将继续与政府和许多利益相关者就安全问题进行合作。目前还没有行之有效的剧本来指导如何走上 AGI 之路。
在 OpenAI 的许多前雇员看来,历史上轻触式的互联网监管理念并不适用。

Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1