智东西
编译 | 陈骏达
编辑 | Panken
智东西5月30日消息,本周二,OpenAI前董事会成员、美国乔治城大学安全与新兴技术中心战略主任海伦·托纳(Helen Toner)在接受The TED AI Show采访时,曝光了更多OpenAI CEO萨姆·阿尔特曼(Sam Altman)管理公司及与前董事会沟通时的种种不当行为。
去年11月18日,OpenAI董事会突然宣布开除CEO阿尔特曼,随后几天反转大戏连番上演,超9成OpenAI员工用辞职来胁迫前董事会下台,要求让阿尔特曼复职,最终阿尔特曼重新掌权,托纳等前董事也被除名。
托纳称,阿尔特曼在与前董事会沟通的过程中有意隐瞒了大量信息,阻碍了前董事会对OpenAI公司的监督。例如,在OpenAI正式发布ChatGPT时,OpenAI彼时的前董事会成员们并没有得到任何事先通知。董事会成员们是在推特平台上获知的这一消息。
她也提到,虽然阿尔特曼离职后,有大量OpenAI员工支持他回归。但这一支持的背后也包含着对阿尔特曼的恐惧,比如阿尔特曼可能会摧毁OpenAI,或者是在回归公司后报复反对他的员工。
一、阿尔特曼阻挠前董事会正常履职,高管称他对员工进行“精神虐待”
OpenAI公司的董事会与一般公司的董事会不同。OpenAI董事会的优先事项是公共利益,而非公司利润与投资者利益。但托纳称,阿尔特曼通过各种手段阻挠前董事会正常履职。阿尔特曼曾经隐瞒信息,歪曲事实,甚至直接对前董事会撒谎。比如,在2022年11月份ChatGPT问世时,董事会并没有获得来自阿尔特曼的任何提前通知,而是在ChatGPT正式发布之后才在推特上看到这些消息。
阿尔特曼曾经多次在公开场合说过,自己在OpenAI没有任何股份,是OpenAI的独立董事会成员。但他实际上持有OpenAI的创业基金,并且并没有向前董事会报告这一点。他向OpenAI前董事会提供的OpenAI安全流程也是不准确的,这让前董事会成员难以对OpenAI进行有效监管。
2023年10月份,托纳和其他两位合著者发表了一份关于人工智能的报告,其中涉及到对OpenAI的批评。报告中写道,OpenAI因为ChatGPT和GPT-4的安全和道德问题而受到批评,包括版权问题、数据标注者的劳动条件问题,以及OpenAI的产品更容易遭到“越狱”,从而允许用户绕过部分安全屏障。
在报告发布后,阿尔特曼就试图将托纳赶出OpenAI董事会。此时,OpenAI的部分前董事会成员已经在认真讨论开除阿尔特曼的事宜。4位决定开除他的前董事会成员一致认为,他们已经无法相信阿尔特曼所说的话。
前董事会还与OpenAI部分高管展开对话。这些高管向前董事会透露了一些他们之前不愿分享的经历。他们说,阿尔特曼正在对公司员工进行“精神虐待”,他们无法信任阿尔特曼,认为阿尔特曼并不是领导OpenAI走向AGI(通用人工智能)的合适人选。这些高管还向前董事会成员提供了一些截图和文件,以证明阿尔特曼确实存在撒谎和操纵人心的行为。
前董事会成员花了数个星期详细讨论了这些问题,最终决定罢免阿尔特曼是唯一的选择。托纳说,他们也清楚地知道,一旦阿尔特曼提前知道前董事会决定罢免他,他必然会采取种种手段阻止前董事会。因此前董事会非常谨慎,除了与前董事会的法律团队提前沟通之外,没有告诉任何人这个消息。
二、让阿尔特曼回归是不得已而为之,公司员工惧怕阿尔特曼报复
2023年11月17日,托纳和其他三名前董事会成员投票决定罢免阿尔特曼的OpenAI CEO职务。前董事会声明的理由是,阿尔特曼“在与董事会的沟通中并非始终如一地坦诚”,并且阿尔特曼正为了自己的利益而操纵部分前董事会成员的看法。4天后,该决定被撤销,托纳也被从董事会中除名。
谈及阿尔特曼的回归,托纳认为共有两点理由。
第一,在阿尔特曼被罢免初期,OpenAI员工就知道他们只有两个选择,不让阿尔特曼回归的话,就要面临公司被毁的风险。托纳说她理解大家为何不愿看到公司被毁。因为OpenAI员工在公司持有股份,并期待从股票回购中获利。还有一部分员工十分热爱自己的团队,也特别关心自己所从事的事业。
第二,员工十分惧怕与阿尔特曼作对。公司里有许多人之前便经历过阿尔特曼的报复。他们知道如果公开反对阿尔特曼,万一阿尔特曼回归OpenAI,他们就可能面临阿尔特曼的报复。
托纳在采访中提到,阿尔特曼在其它公司的过往履历中也存在类似问题。在阿尔特曼于自己创立的社交媒体初创企业Loopt任CEO时,Loopt的其它高管曾两次找到公司董事会,反映阿尔特曼在公司内部的欺骗性和引发公司混乱的行为。
阿尔特曼还有被其它公司开除的经历。阿尔特曼的上一份工作是硅谷知名孵化器Y Combinator(YC)的总裁。但他并非主动离职,而是被YC开除了。这点在阿尔特曼离开YC时也是被隐瞒的。
根据《华盛顿邮报》2023年11月份的报道,阿尔特曼在YC工作期间确实存在大量不当行为。比如阿尔特曼在YC期间高度关注OpenAI的发展,他工作时优先事项始终是他个人的事务。这让他在YC的同事和一些他本来应该扶持的初创企业感到不满。
阿尔特曼还联合自己的弟弟杰克·阿尔特曼(Jack Altman),用两人的私人基金投资他在YC工作时发现的一些初创企业。类似行为后来受到了YC的限制。
阿尔特曼在YC工作时的种种问题,也让YC的创始人保罗·格雷厄姆(Paul Graham)在2019年不得不亲自从英国飞到旧金山,并罢免了阿尔特曼在YC的总裁职务。
结语:阿尔特曼再陷信任危机,OpenAI还能安全的实现AGI吗?
在托纳曝光更多阿尔特曼罢免事件的细节后,The TED AI Show播客向阿尔特曼本人分享了播客的内容,并邀请他作出回应。但最终,他们只收到了OpenAI现任董事长布雷特·泰勒(Bret Taylor)的书面回应。他称现董事会对托纳重新讨论这些事情感到“失望”,称前董事会开除阿尔特曼的决定与产品安全、开发速度和OpenAI的财务状况都没有任何关系。OpenAI目前的重点仍然是向前迈进,并实现AGI造福全人类的使命。
然而,OpenAI近期的状况很难让公众相信,他们能充分履行公司的使命。在OpenAI的GPT-4o模型发布不久后,OpenAI原首席科学家,同时也是支持罢免阿尔特曼的4位前董事会成员之一的伊利亚·苏茨克维(Ilya Sutskever)正式官宣离职。
不久后,OpenAI超级对齐团队联合负责人杨·莱克(Jan Leike)也在推特上宣布离职。他称OpenAI领导层关于公司核心优先事项的看法一直不合,超级对齐团队过去几个月一直在逆风航行,在提升模型安全性的道路上受到公司内部的重重阻碍。莱克也呼吁,OpenAI必须成为一家安全第一的AGI公司。
而目前,OpenAI的优先事项,或许并非安全。
来源:The TED AI Show;《华盛顿邮报》