鞭牛士报道,5月19日消息,据外电报道,周一,OpenAI宣布了令人兴奋的新产品消息:ChatGPT 现在可以像人类一样说话。
它有一种欢快、略带讨好的女性声音,听起来不像机器人,如果你看过 2013 年斯派克·琼斯 (Spike Jonze) 的某部电影,你会觉得有点熟悉。
「她」, OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman)在推特上写道,指的是电影中一名男子爱上了由斯嘉丽·约翰逊 (Scarlett Johansson) 配音的人工智能助理。
但 ChatGPT 4o 的产品发布很快就被 OpenAI 的更大新闻所掩盖:该公司联合创始人兼首席科学家 Ilya Sutskever 以及他的联合团队负责人Jan Leike的辞职,Ilya Sutskever 也是其超级对齐团队的领导者。
辞职并不完全令人意外。去年,苏茨克维尔参与了导致奥特曼临时被解雇的董事会叛乱,随后这位首席执行官很快又回到了自己的位置。 Sutskever 公开对自己的行为表示遗憾,并支持 Altman 的回归,但自 2017 年以来,尽管 OpenAI 政策、协调和安全团队的其他成员已经离开,但他基本上缺席了公司。
但真正引发猜测的是前员工的沉默。 Sutskever发布了一条非常典型的辞职信息,称我相信 OpenAI 将构建既安全又有益的 AGI……我对接下来发生的事情感到兴奋。
雷克……没有。他的辞职信息很简单:我辞职了。
经过几天的热烈猜测,他在周五早上对此进行了扩展,解释说他担心 OpenAI 已经偏离了以安全为中心的文化。
问题立即出现:他们是被迫离开的吗?这是奥特曼去年秋天短暂解雇的延迟后果吗?他们辞职是为了抗议某个秘密且危险的新 OpenAI 项目吗?猜测填补了这个空白,因为没有一个曾经在 OpenAI 工作过的人在谈论这一点。
事实证明,这是有一个非常明确的原因的。我看到了极其严格的离职协议,其中包含前 OpenAI 员工必须遵守的保密和保密条款。它禁止他们在余生中批评他们的前雇主。即使承认 NDA 的存在也构成对其的违反。
如果离职员工拒绝签署该文件,或者违反该文件,他们可能会失去在公司期间获得的所有既定股权,这可能价值数百万美元。
一位前员工 Daniel Kokotajlo 发帖称,他退出 OpenAI是因为对 OpenAI 在 AGI 时代会负责任地行事失去了信心。
虽然保密协议在竞争激烈的硅谷并不罕见,但将员工已归属的股权置于拒绝或违反保密协议的风险中却是罕见的。对于像 OpenAI 这样的初创公司的员工来说,股权是一种重要的薪酬形式,这种薪酬形式可能会让他们的工资相形见绌。威胁提供可能改变生活的金钱是让前员工保持沉默的非常有效的方法。
OpenAI 没有及时回复首次发布的置评请求。
文章发表后,OpenAI 发言人给我发了这样一份声明:我们从未取消任何现任或前任员工的既得股权,如果人们在退出时不签署免责协议或非贬低协议,我们也不会取消。
与我交谈的公司关系密切的消息人士告诉我,按照他们的理解,这代表着政策的变化。当我询问 OpenAI 发言人这一声明是否代表着变化时,他们回答说:这一声明反映了现实。
对于一家最初标榜自己为开放人工智能的公司来说,所有这一切都极具讽刺意味,即在其使命宣言中致力于以透明和负责任的方式构建强大的系统。
OpenAI出于安全考虑,很久以前就放弃了开源其模型的想法。但现在它已经解雇了安全团队中最资深、最受尊敬的成员,这应该会引发一些人的怀疑:安全是否真的是 OpenAI 变得如此封闭的原因。
科技公司将终结所有科技公司
OpenAI 长期以来在技术和政策圈子中占据着不同寻常的地位。他们发布的产品,从 DALL-E 到 ChatGPT,通常都很酷,但它们本身很难吸引人们经常讨论该公司的近乎宗教般的热情。
OpenAI 的与众不同之处在于其使命的雄心:确保通用人工智能——通常比人类更聪明的人工智能系统——造福全人类。
许多员工相信这一目标是可以实现的;也许再过十年(甚至更短)——以及几万亿美元——该公司将成功开发人工智能系统,使大多数人类劳动力变得过时。
正如该公司自己长期以来所说的那样,这既令人兴奋又充满风险。
「超级智能将是人类发明的最具影响力的技术,可以帮助我们解决世界上许多最重要的问题。」Leike 和 Sutskever 团队在 OpenAI 的招聘页面上写道。 「但超级智能的巨大力量也可能非常危险,并可能导致人类丧失权力,甚至导致人类灭绝。虽然超级智能现在看来还很遥远,但我们相信它可能在十年内实现。」
当然,如果我们有生之年可能出现超级人工智能(专家们意见不一),那么它将对人类产生巨大的影响。 OpenAI 历来将自己定位为负责任的参与者,试图超越单纯的商业激励,并为所有人的利益带来通用人工智能。他们表示,他们愿意这样做,即使这需要放慢发展速度、错失盈利机会或允许外部监督。
「我们认为 AGI 不应该只是硅谷的事情。」OpenAI 联合创始人 Greg Brockman在 2019 年告诉我,当时 ChatGPT 出现之前的日子要平静得多。 「我们正在谈论改变世界的技术。那么如何在那里获得正确的代表和治理呢?这实际上对我们来说是一个非常重要的关注点,也是我们真正需要广泛投入的事情。」
OpenAI 独特的公司结构——一家最终由非营利组织控制的利润有限的公司——本应加强问责制。
「这里不应该信任任何人。我没有超级投票权股票。我不想要它们。」2023 年,奥尔特曼向彭博社的艾米丽·张 (Emily Chang) 保证。 「董事会可以解雇我。我认为这很重要。」(正如董事会去年 11 月发现的那样,它可以解雇 Altman,但无法坚持这一举措。在被解雇后,Altman达成了一项协议,实际上将公司带到了微软,最终在大多数董事会成员辞职后恢复了职位。)
但最能体现 OpenAI 对其使命的承诺的莫过于像 Sutskever 和 Leike 这样的杰出人物,他们是长期致力于安全的技术专家,而且显然真诚地愿意在需要时要求 OpenAI 改变路线。
当我在 2019 年的采访中对布罗克曼说,你们在说,我们要建立一个通用人工智能。
苏茨克维尔插话道,我们将在这个方向上做一切能做的事情,同时还要确保我们以安全的方式进行。
他们的离开并不预示着 OpenAI 构建通用人工智能的使命发生变化——这仍然是我们的目标。但几乎可以肯定的是,这预示着 OpenAI 对安全工作的兴趣发生了变化;该公司尚未宣布谁(如果有的话)将领导超级调整团队。
这清楚地表明 OpenAI 对外部监督和透明度的担忧并没有那么严重。如果您希望外部监督和世界其他地方在您所做的事情中发挥作用的机会,那么让前雇员签署极其严格的保密协议并不完全符合。
闭门改变世界
这种矛盾是 OpenAI 让我们这些非常关心确保人工智能真正顺利发展并造福人类的人深感沮丧的核心原因。 OpenAI 是一家热闹的中型科技公司,生产一个健谈的个人助理,还是斥资数万亿美元打造人工智能之神?
该公司的领导层表示,他们希望改变世界,他们希望在这样做时承担责任,并且欢迎世界各地就如何公正和明智地做到这一点提出意见。
但是,当涉及真金白银时——而且在主导人工智能的竞赛中,涉及金额惊人的真金白银——很明显,他们可能从来没有打算让世界获得这么多的投入。他们的流程确保前员工(那些最了解 OpenAI 内部正在发生的事情的人)无法告诉世界其他地方正在发生什么。
该网站可能有崇高的理想,但他们的终止协议却充满了顽固的法律术语。对于一家前员工只能说我辞职的公司来说,很难对其承担责任。
ChatGPT 新的可爱声音可能很迷人,但我并不特别着迷。