机器之心报道
机器之心编辑部
半年来内斗剧情跌宕起伏的企业 OpenAI,再次传来人员变动的消息。
The Information 报道,据知情人士透露,OpenAI 已经解雇了两名涉嫌泄露信息的员工。
一位是 Leopold Aschenbrenner,是 OpenAI 超级对齐团队的研究员。
他是 OpenAI 首席科学家 Ilya Sutskever 的盟友,去年秋天,Ilya 参与了逼走 OpenAI CEO Sam Altman 的行动,但以失败告终。
另一名被解雇的员工 Pavel Izmailov 在 OpenAI 从事推理相关的研究,也曾在超级对齐团队工作过一段时间。
二人曾在团队的多项工作中合作,包括这篇被广泛关注的《Weak-to-Strong Generalization》(https://arxiv.org/abs/2312.09390)。
目前尚不清楚的是,这两名被解雇的员工到底泄露了哪些信息。
两人的离职,是 Sam Altman 今年 3 月重新担任董事会成员以来首次公开的人事变动。在此之前,OpenAI 的非营利性董事会领导了一项调查,为 Altman 在去年 11 月被短暂解雇前的行为开脱罪责。
回顾「宫斗」事件的细节,我们或许可以发现一些端倪。在下台之前,OpenAI 的员工在公司是否足够安全地开发人工智能的问题上存在分歧。
联合创始人 Ilya Sutskever 是解雇 Altman 的董事会成员之一,董事会称 Altman 缺乏坦诚。在 Altman 重新担任 CEO 后,Sutskever 离开了董事会。自那场风波后,他基本上就没有再出现在 OpenAI 的舞台上。
但宫斗事件后,Sam Altman 也没有回避过对 Ilya 的赞美,表示自己非常尊重并欣赏 Ilya,希望未来的工作生涯都能和他合作:「Ilya 并没有看到通用人工智能,但 Ilya 是人类的功臣。关于安全问题 Ilya 想了很多,也担心了很多。」
「有人说 Ilya 看到了一些东西,可能是 AGI,这让他内心不安。所以,Ilya 看到了什么?」
Sam Altman:「Ilya 看到的不是 AGI,没有人见到过 AGI,我们还没有建造过 AGI。我确实认为我欣赏 Ilya 的众多原因之一是他非常认真地对待 AGI 和安全问题,从广义上讲,这包括 AGI 将对社会产生的影响。随着 OpenAI 不断取得重大进展,Ilya 是陪伴我时间最久的人之一。在过去的几年里,他总谈起这意味着什么、我们需要做什么来确保我们做的是对的,确保我们成功完成使命。所以 Ilya 并没有看到通用人工智能,但 Ilya 是人类的功臣,他想了很多,也担心了很多。」
在公司内部,Aschenbrenner 也是 OpenAI 超级对齐团队的负责人之一。该团队由 Ilya Sutskever 去年夏天组建,目的是开发控制和引导高级人工智能(即超级智能)的技术,这些高级人工智能可能会解决核聚变问题或殖民其他星球。
Aschenbrenner 19 岁时毕业于哥伦比亚大学,此前曾在未来基金(Future Fund)工作,这是 FTX 前 CEO Sam Bankman-Fried 创办的慈善基金,旨在资助「改善人类长期前景」的项目。
显然,Aschenbrenner 更倾向于「有效利他主义」(effective altruism)的立场,将解决人工智能的危险性置于短期利润或生产力利益之上。就在一年前,Aschenbrenner 加入了 OpenAI。
当初解雇 Altman 的几位董事会成员也与有效利他主义有关。例如,Tasha McCauley 是 FTX 资助的慈善机构、有效利他主义中心的母公司 Effective Ventures 的董事会成员,Helen Toner 曾在以有效利他主义为重点的慈善项目工作过。而这两个人,都在 Altman 11 月底重新担任 CEO 的时候离开了董事会。
至于 Pavel Izmailov,此前就已经在个人主页披露了未来计划:2025 年秋季加入纽约大学任助理教授。
对于这则消息,当事双方和 Ilya 都没有正式回复。可能大家最关心的是, Ilya 会不会随后离开 OpenAI?只能说很难预测。
参考链接:https://www.theinformation.com/articles/openai-researchers-including-ally-of-sutskever-fired-for-alleged-leaking