当前位置:首页|资讯|OpenAI|人工智能

火力全开!OpenAI研究员辞职后称安全文化已让位闪亮产品

作者:鞭牛士发布时间:2024-05-18

鞭牛士报道,5月18日消息,据外电报道,OpenAI 的重要研究员 Jan Leike 在联合创始人 Ilya Sutskever 离职后于本周早些时候辞职。

随后,他在 X周五早上发帖称,在公司,安全文化和流程已经让位于闪亮的产品。

Leike 发表上述声明之前,《连线》报道称 OpenAI 已完全解散了致力于解决长期人工智能风险的团队(称为超级对齐团队)。

Leike 一直在管理 Superalignment 团队,该团队于去年 7 月成立,旨在解决实施安全协议的核心技术挑战,因为 OpenAI 开发了可以像人类一样推理的人工智能。

OpenAI 的最初想法是向公众公开提供他们的模型,该组织因此得名,但由于该公司声称允许任何人访问如此强大的模型可能具有潜在的破坏性,因此它们已成为专有知识。

「我们早就应该认真对待 AGI 的影响了。我们必须优先考虑尽可能为他们做好准备。」雷克在周五早上关于他辞职的后续帖子中说道。 「只有这样,我们才能确保 AGI 造福全人类。」

The Verge本周早些时候报道称,在去年不成功的董事会政变中支持 Altman 的另一位 OpenAI 联合创始人约翰·舒尔曼 (John Schulman) 将接替雷克的职责。苏茨克维尔在臭名昭著的针对萨姆·奥尔特曼的失败政变中发挥了关键作用,他于周二宣布离职。

「在过去的几年里,安全文化和流程已经让位于闪亮的产品。」雷克发帖说。

Leike 的帖子突显了 OpenAI 内部日益紧张的局势。随着研究人员竞相开发通用人工智能,同时管理 ChatGPT 和 DALL-E 等消费类 AI 产品,Leike 等员工开始担心创建超级智能 AI 模型的潜在危险。

雷克表示,他的团队的优先级被降低,无法获得计算和其他资源来执行关键工作。

「我加入是因为我认为 OpenAI 将是世界上进行这项研究的最佳场所。」Leike 写道。 「然而,相当长一段时间以来,我一直与 OpenAI 领导层关于公司核心优先事项的观点存在分歧,直到我们最终达到了临界点。」


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1