今天凌晨,据外媒《Fortune》援引前 OpenAI 员工 Daniel Kokotajlo 的说法,曾专注于超级 AI 长期风险的 OpenAI 员工中,几乎有一半在过去几个月离开了公司。
据他透露,自 2024 年以来,OpenAI 公司内部的人员流失现象严重, 曾经大约有 30 名员工从事于 AGI 安全相关的工作,但现在只剩下大约 16 人。
他认为,这并不是有组织的离职潮,而是随着 OpenAI 继续向产品和商业方向转型,减少了对安全开发 AGI 的资源投入,从而导致许多员工纷纷选择离开。
事实上,自去年宫斗风波以来, OpenAI 的人事变动就一直风波不断, 其中超级对齐团队更是分崩离析,专注于 AGI 安全和应对措施的员工也被逐步边缘化。
先是 OpenAI 首席科学家 Ilya Sutskever 官宣离职,投身于下一个「意义重大的项目」,后有超级对齐团队负责人之一 Jan Leike跳槽至昔日劲敌 Anthropic。
当时,Jan Leike 还在 X 平台公开吐槽 OpenAI 的「变质」,声称在过去几年里,安全文化和流程已经退居次要地位, 而「闪亮的产品」则成为重中之重。
不过,Kokotajlo 也补充道,尽管 Leike 离职后超级对齐团队被解散,但他仍有朋友在 OpenAI 继续从事 AGI 安全工作,只是转移到了其他团队,并继续从事类似项目。
对于继续留在 OpenAI 的员工,Kokotajlo 警告说,在大型 AI 公司竞相开发 AGI 的过程中,需要警惕「群体思维的陷阱」。
我认为,部分原因是,在公司内部,合理的观点自然会被大多数人的意见所影响,也会受到激励机制的驱动,因此,公司最终得出他们赢得 AGI 竞赛对人类有益的结论也就不足为奇了 —— 这是一种被激励的结论。
业界普遍认为,Altman 和 Greg Brockman 自去年宫斗风波以来就一直在「巩固权力」。
本月初,OpenAI 联创、重要元老级人物 John Schulman 也宣布离职,公开资料显示,他在强化学习和深度学习方面的研究对 AI 的发展产生了深远影响。
他曾在 OpenAI 协助领导「后训练团队」,并共同创立了 OpenAI LP,致力于推进 AI 技术的安全发展。
而他的下一站则是 OpenAI 的最大竞争对手 Anthropic。这也是继超级对齐团队负责人 Jan Leike 之后,又一位加入 Anthropic 的重要高管。
颇为有缘的是,在 Ilya 和 Jan Leike 离职后,Schulman 曾接管防止 AI 对人类社会造成伤害的超级对齐团队,以确保 AI 模型的安全性。
随着 Schulman 的离开以及总裁 Brockman 进入长期休假阶段,也意味着 OpenAI 的 11 名创始人团队如今仅剩下两位活跃的创始成员——
OpenAI CEO Altman 以及语言与代码生成团队负责人 Wojciech Zaremba。
处于有关 AI 和安全问题的激烈辩论中心的 OpenAI 一举一动都在引发全球的关注。包括在今年五月份,外媒 Vox 曝出一份 OpenAI 员工极其严苛的离职协议。
报道称,OpenAI 员工需要签署极其严格的离职协议,其中包括保密和不诋毁条款。 协议禁止他们终生批评他们的前雇主,甚至承认 NDA 的存在也是违反协议的。
如果离职员工拒绝签署文件,或违反文件,他们可能会失去在公司期间获得的所有归属权益,这可能价值数百万美元。该事件曝出后,也迅速在网上引起轩然大波。
或许也正是因为这一连串舆论事件让 OpenAI 内部认为安全威胁可能来自公司内部。
最近 OpenAI 正在招聘一名技术内部风险调查员,目的是要「加强公司对内部安全威胁的防范能力。」
招聘信息中提到,该职位的职责包括分析异常活动、检测和缓解内部威胁,并与人力资源和法律部门合作,「对可疑行为」进行调查。
外媒 The Bussiness Insider 指出,尽管目前尚未清楚 OpenAI 正在寻找何种类型的威胁, 但这份招聘信息似乎表明 OpenAI 还担心来自其自身员工的威胁。
截至发稿前,OpenAI 发言人暂未就此事发表评论。