末法时代,众神归位。
伊利亚·苏茨克维(Ilya Sutskever)宣布成立新公司“安全超级智能”(Safe Superintelligence,以下简称SSI)。
5月中旬,在经历了带头罢免CEO萨姆·奥尔特曼(Sam Altman)闹剧之后,OpenAI的创始人之一、首席科学家伊利亚离职。之后,“伊利亚去哪儿了”,“伊利亚在干啥”,成为一个众人津津乐道的谜团,现在他再次现身,带着一个新公司。
在彭博社的专访中,SSI是一个“纯研究机构,旨在创建一个安全而强大的人工智能系统,近期没有出售人工智能产品或服务的意图”。
翻译一下:一个月后,消失的伊利亚回来了,成立了一个新公司,不做生意,只做AI安全。
关于SSI,我们知道的还不太多,目前公开的信息如下:
除了伊利亚,SSI还有两位联合创始人。
一位是YC合伙人、上一任苹果AI负责人丹尼尔·格罗斯(Daniel Gross),另一位是丹尼尔·列维(Daniel Levy),伊利亚在OpenAI的前同事。
SSI有两个办公室,一个在美国加州帕罗奥图,一个在以色列特拉维夫。因为伊利亚和格罗斯都是在以色列长大的。
SSI短期内不会盈利,商业模式未知。
但他们已经有了足够烧一阵的钱。在彭博社的专访中,格罗斯说:“在我们面临的所有问题中,筹集资金不会是其中之一。”
伊利亚说,关于如何做一个安全的AI,他已经想了很多年,而且已经有了一些想法。但具体要怎么做,他还没有透露。
伊利亚说,所谓安全的AI,“在最基本的层面上,应该不会大规模伤害人类”,在此之后,伊利亚希望它能有一些关键的价值观。“我们考虑的一些价值观可能是在过去几百年中被证明非常成功,并能支撑自由民主的价值观”,伊利亚说,“比如自主、自由、民主”。
目前,SSI的官方X号上只有一条公告,这条公告详细说明了这是一家什么样的公司以及接下来要做什么样的事,全文翻译如下:
超级智能即将触手可及。
构建安全的超级智能(SSI)是我们这个时代最重要的技术问题。
我们已经启动了全球首个直线推进的SSI实验室,只有一个目标和一个产品:安全的超级智能。
它被称为SSI。
SSI是我们的使命、我们的名称和我们整个产品路线图,因为它是我们唯一的关注点。我们的团队、投资者和商业模式都致力于实现SSI。
我们同时关注安全性和能力,将其视为通过革命性工程和科学突破来解决的技术问题。我们计划尽可能快地推进能力,同时确保我们的安全始终走在前列。
只有如此,我们才能安心地扩大规模。
我们的唯一关注意味着没有管理开销或产品周期的干扰,而我们的商业模式意味着安全、保障和进展都不受短期商业压力的影响。
我们是一家美国公司,在帕罗奥图和特拉维夫设有办公室,我们在这里有深厚的根基和招募顶尖技术人才的能力。
我们正在组建一个精简的顶尖工程师和研究人员团队,专注于SSI而无其他分散注意力。
如果你是这样的人,我们提供一个机会,让你做一生的事业,帮助解决我们时代最重要的技术挑战。
现在是时候了。加入我们吧。
回顾一下之前伊利亚另起炉灶的根本原因,是OpenAI出现了价值观的分裂,偏离了他的初心。
OpenAI的第一个分裂之处:坚持非盈利的董事会,和不断吸金的CEO。
OpenAI成立的初衷,可以说是极端理想化的。
2015年,奥尔特曼、马斯克、伊利亚、Greg Brockman,和另外几位世界级的人工智能领域科学家一起创立了OpenAI,他们是最早发现人工智能潜力的一批人,也是最先意识到AI威胁的人。因此在成立之初,他们就想好了要成立一个“为每个人创造福祉而不是为股东盈利”的公司。
他们的目标是开发匹敌或超越人类智能的机器,也就是通用人工智能(AGI),并且保证它是安全的。
这也就是为什么——虽然听起来难以置信——市值将近900亿美元的OpenAI至今仍是一个非盈利组织。
“我们难以预测人类水准的人工智能何时到来,但当它到来时,我们需要一个中立的领导机构,这个机构需要把造福大众放在第一,把自己的利益放在第二……作为一个非盈利组织,我们将大力鼓励研究人员公开他们的工作,无论是论文、博文,还是代码,我们的专利将与全世界共享。”|《介绍OpenAI》@OpenAI
之后是沉默的四年,OpenAI在沉默中烧掉了大量资金,经济压力也逐渐增加。
奥尔特曼曾担任硅谷传奇加速器Y Combinator的总裁,见过太多优秀的初创公司因为金融问题被老牌公司挤垮,2019年,他以CEO的身份加入OpenAI,成立了负责盈利的子公司Open Global。据《大西洋月刊》报道,目前Open Global的雇员数量已经占据OpenAI总人数的99%以上。
当时已经离开OpenAI的马斯克锐评,此举无异于把雨林保护组织变成伐木公司。
很明显,仅靠捐赠已经无法支持我们的计算能力和人才成本……因此我们设计了一种结构,既能保证非营利组织的核心使命、治理和监督,又能为我们筹集资金。|《我们的公司架构》@OpenAI
子公司成立后,OpenAI从微软那里募集了超过110亿美元,直接促成了ChatGPT这样的面向大众用户的产品推出。在很多AI先驱眼里,这种局面是非常危险的,在追求利润、维持公司发展这条路上走得越快,OpenAI离一个中立的、安全的、谨慎的非盈利公司就越远。
第二个分裂之处:快速发展的AI技术,与无法预测的安全问题。
伊利亚和奥尔特曼之间经常就AI的安全问题产生争执。奥尔特曼更像是商人,伊利亚则有着漂亮的学术背景——他师从“深度学习之父”Geoffrey Hinton,而后者在今年春天刚刚从谷歌辞职,以便能更自由地向公众谈论AI的威胁。
有报道总结,伊利亚和奥尔特曼之间最大的分歧在于,在继续前进之前应该在多大程度上理解自己正在创造的东西。伊利亚认为,他的首要任务是解释AI的行为,并找到一种引导AI、让它们和我们的目标和价值观保持一致的方法,而奥尔特曼在面对安全和伦理问题时更为激进。
奥尔特曼(左)和伊利亚(右)|Bussiness Insider
如今,OpenAI的公开年化营收达到34亿美金,它已经逐渐远离了初心,而伊利亚的容身之处也不在于此。
OpenAI不能拯救人类,但伊利亚一直没有放弃。
伊利亚一直很关心人工智能的安全问题。2022年,他在自己的社交网站上发文称,“今天的大型神经网络可能具有轻微的意识。”
伊利亚烧毁了一座象征人工智能的木质雕像,以表示OpenAI致力于以人类的最大利益为目标而创造人工智能。
伊利亚急于解开AI黑箱,并且加以引导,他认为这是人类300万年工具使用史上的最大挑战,也是“人性的最终战”(the final boss of humanity)。
去年10月,伊利亚接受采访时再次表示,他当下的首要任务不是构建一个新的GPT或是DALL-E, 而是找出方法阻止人工智能的失控。
伊利亚认为10年内就会出现超级人工智能。
伊利亚在推文中说,“如果你觉得聪明是人类最宝贵的美德,那你的日子不会好过”。
站在人类这边的是Ilya|@ilya
但,不管成立之初的概念再高,都逃不过越变越冗杂的规模化魔咒,别忘了OpenAI最初也是一群理想主义者建立的。让我们祝福伊利亚这次代表人类走得更远些,更稳健些。
本文来自微信公众号“果壳”(ID:Guokr42),作者:翻翻,编辑:odette,36氪经授权发布。