在“宫斗”半年后,OpenAI离职潮的体面还是被打破了,该公司“保卫人类”的团队分崩离析。不仅首席科学家伊利亚·苏茨克沃(Ilya Sutskever)和他的亲信、超级对齐团队负责人之一的简·雷克(Jan Leike)双双离职,他们共同领导的“超级智能对齐团队(AI风险团队)”也被证实解散。同时,他们直指离职内幕——OpenAI创始人奥特曼(Sam Altman)不给资源、力推商业化不顾安全。这也再次引发了人们对该公司在开发AI产品时如何平衡速度与安全的质疑。
突然离职
最新的GPT-4o上线短短几天之内,OpenAI迎来一次又一次的人事动荡。美东时间5月14日,伊利亚·苏茨克沃官宣离职。同日,简·雷克也宣布离职。上周五,OpenAI最终证实,由苏茨克沃和简·雷克共同领导的“超级智能对齐团队”已经解散。
官宣离职次日凌晨,简·雷克在社交平台X上连发13条推文,爆料离职的真正原因及更多内幕。总结来看,一是算力资源不够用,二是OpenAI对安全不够重视。这也是OpenAI高管级别的人物首次公开承认公司重视产品开发胜过安全。
此次两位离职科学家负责的超级对齐项目,成立的时间才不到一年,之前定下的目标是在四年内解决超智能AI的对齐问题。OpenAI曾表示,会将20%的算力用于该项目的研究。
而站在奥特曼的立场,维护超级对齐团队是一项庞大的开支,这势必会削弱OpenAI新产品开发的资源,而投资超级对齐团队实际是在投资未来。据OpenAI超级对齐团队的一位人士透露,20%计算资源的承诺被打了折扣,其中一小部分计算的请求经常被拒绝,这阻碍了团队的工作。
而一份有关“封口协议”的爆料,又让这件事显得更加扑朔迷离。一位名为Kelsey Piper的OpenAI前员工爆料称,公司任何员工的入职文件说明中都有这样一项要求,即“在离开公司的60天内,员工必须签署一份包含‘一般豁免’的离职文件。如果没有在60天内完成签署,员工的股权收益就会被取消”。也就是说,OpenAI以股权为条件,制定了令员工认为不合理的离职条款。
5月19日,奥特曼在爆料传出后迅速于X回应称,“我们从未收回过任何人的既得股权,如果有人不签署离职协议,我们也不会这样做,既得股权就是既得股权”。
“宫斗”余波
与离职风波同步而来的是OpenAI面临的舆论危机,也是领导层和董事会都不愿意看到的舆论危机。毕竟公司从上一波宫斗戏结束到趋近平稳,才过去不到半年。据媒体不完全统计,自去年11月至今,OpenAI至少有7名注重AI安全的成员辞职或被开除。
当时的种种“剧情”,或已透露出这个团队和OpenAI管理层之间的分歧。在那场董事会风波中,苏茨克沃曾与OpenAI原董事会合作试图解雇奥特曼。OpenAI在公告中称奥特曼对董事会不够坦诚。
当时有人将其解读为:OpenAI可能已经在内部实现了AGI(通用人工智能),但并没有将消息及时同步给更多人员,为了防止该技术未经安全评估就被大规模应用,苏茨克沃等人按下了紧急停止键。不过仅仅一个周末的时间,奥特曼就重返OpenAI董事会,并且之前罢免他的董事被纷纷解雇,董事会宣布重组。
一场风波之后,奥特曼似乎可以更自由地管理OpenAI了,而苏茨克沃陷入了尴尬。这几个月来,他动态甚少。据知情人士透露:“苏茨克沃已经大约有6个月没有在OpenAI的办公室出现了,他一直远程领导超级对齐团队”,直到正式宣布离职。
至于接下来的安排,苏茨克沃在其X推文中称他会开发一个全新有意义的项目,适当的时候就会披露更多细节。有人猜测,他可能会加入马斯克的xAI,虽然有戏剧性,但也不排除可能性。
苏茨克沃1985年出生于苏联,成长于以色列,会俄语、希伯来语和英语。在多伦多大学求学期间,他师从“现代人工智能之父”杰弗里·辛顿,并与其合作开发了AlexNet,该神经网络的诞生极大地推动了深度学习技术在图像识别领域的应用。
2015年,在马斯克力邀之下,苏茨克沃加入OpenAI,成为初创团队的一员,在ChatGPT语言模型和Dall-E图像生成器的研发过程中扮演了关键角色。
《纽约时报》报道称,苏茨克沃加入OpenAI后参与了涉及神经网络的人工智能突破,这项技术在过去十年中推动了该领域的显著进步。2023年,苏茨克沃入选2023年度十大科学人物榜单(Nature's 10),被Nature评价为“ChatGPT和其他改变社会的人工智能系统的先驱”。
安全质疑
在外界看来,OpenAI的确已经不再像当初那样开源,网友也开始戏称其为“CloseAI”。在公司表达的立场上,闭源是出于安全考虑。但如今,安全性的负责人相继离职并公开批判,这意味着,OpenAI再用“安全”因素为闭源做解释,已经有些难以维系局面了。
马斯克针对OpenAI超级对齐团队已经解散这一消息评价称:“这显示安全并不是OpenAI的首要任务。” 据外媒 Vox 报道,一位不愿透露姓名的公司内部人士表示:“这是一个信任一点一点崩溃的过程,就像多米诺骨牌一张一张倒下一样。”
深度科技研究院院长张孝荣对北京商报记者表示,对于OpenAI来说,产品和技术的升级是一方面,如何处理好人才和管理的问题,也显得更为重要了。尤其是AI这类话题,在其不断爬升的过程中,不管是对技术本身还是公司的争议只会越来越多。
当AI安全领域的领军人物之一说世界上领先的AI公司没有走在正确的轨道上时,所有人想必都有理由感到担忧。正如简·雷克在X上发出的劝告:“建造比人类更聪明的机器本身就是一项危险的尝试。OpenAI正肩负一个代表着全人类的巨大责任。OpenAI必须成为一家安全第一的人工智能公司。”
面对周末曝光的大量信息,奥特曼回复称,接下来几天会写一篇长文说明这些问题。此刻,市场、行业和资本都在等OpenAI的更多解释。
北京商报记者 赵天舒