鞭牛士报道,6月20日消息,据外电报道,OpenAI联合创始人之一、前首席科学家Ilya Sutskever在正式离开 OpenAI 仅一个月后,就创立了一家新公司Safe Superintelligence Inc. (SSI)。
苏茨克弗曾长期担任 OpenAI 的首席科学家,他与前 Y Combinator 合伙人丹尼尔·格罗斯 (Daniel Gross) 和前 OpenAI 工程师丹尼尔·利维 (Daniel Levy) 共同创立了 SSI。
在 OpenAI,随着超级智能人工智能系统的兴起,Sutskever 是该公司改善人工智能安全性努力不可或缺的一部分,他与 Jan Leike 一起从事这一领域,后者是 OpenAI 超级对齐团队的联合负责人。然而,Sutskever和Leike都于 5 月离开了公司,原因是他们在如何处理人工智能安全问题上与 OpenAI 领导层发生了激烈争执。
Leike 现在领导着竞争对手人工智能公司 Anthropic 的一个团队。
长期以来,苏茨克弗一直在关注人工智能安全方面的棘手问题。在 2023 年发表的一篇博客文章中,苏茨克弗与 Leike 合著预测,人工智能将在十年内超越人类,而且当它真的出现时,它不一定是仁慈的,因此需要研究控制和限制它的方法。
显然,他今天一如既往地致力于这项事业。
周三下午,Sutskever 发布了一条推文,宣布成立新公司:SSI 是我们的使命、我们的名字,也是我们整个产品路线图,因为这是我们唯一的关注点。我们的团队、投资者和商业模式都致力于实现 SSI。我们将安全性和能力作为技术问题,通过革命性的工程和科学突破来解决。
「我们计划尽快提升能力,同时确保我们的安全始终处于领先地位。这样,我们就可以安心地扩大规模。我们的单一重点意味着不会受到管理费用或产品周期的干扰,而我们的商业模式意味着安全、保障和进步都不受短期商业压力的影响。」
苏茨克维尔向彭博社详细介绍了这家新公司,但拒绝讨论其融资状况或估值。
更明显的是,与 OpenAI 不同——OpenAI 最初于 2015 年成立,是一家非营利组织,后来在其计算能力所需的巨额资金变得更加明显时进行了重组——SSI 从一开始就被设计为一家营利性实体。
从对人工智能的兴趣和团队的资历来看,它可能很快就会陷入资金困境。
格罗斯告诉彭博社:在我们面临的所有问题中,筹集资金不会是其中之一。
SSI 在帕洛阿尔托和特拉维夫设有办事处,目前正在招募技术人才。