伊尔亚·苏茨克维(Ilya Sutskever)
腾讯科技讯 9月4日消息,据外媒报道,人工智能安全初创企业Safe Superintelligence(简称SSI)高管宣布,该公司已成功募集10亿美元资金,旨在开发远超越人类能力范畴的安全人工智能系统。
SSI由OpenAI联合创始人、前首席科学家伊尔亚·苏茨克维(Ilya Sutskever)创立,目前有10名员工。这笔资金将被用于增强计算能力并吸引行业内最顶尖的人才。
该公司将专注于在美国加州帕洛阿尔托和以色列特拉维夫两地,建立一个由研究人员和工程师组成且值得信赖的精英团队。
SSI方面拒绝公开其估值。但据知情人士透露,成立仅3个月的SSI其估值已高达50亿美元(约合人民币356亿元)。此次融资表明,有些投资者仍愿意对专注于基础人工智能研究领域的顶尖人才身上押下巨额赌注。即便这些人创办的公司短期内可能难以盈利,也未能阻挡他们的投资热情。然而,这一趋势也促使部分初创企业创始人选择加入科技巨头,以应对市场的不确定性。
SSI的投资者阵容强大,包括Andreessen Horowitz、红杉资本、DST Global及SV Angel等顶级风投公司。同时,由奈特·弗里德曼(Nat Friedman)和SSI首席执行官丹尼尔·格罗斯(Daniel Gross)共同管理的投资合伙公司NFDG也参与其中。
格罗斯在接受采访时表示:“我们珍视那些理解、尊重并支持我们使命的投资者。我们的目标是直接推动安全超级智能的发展,并愿意在推向市场前,投入数年时间进行产品研发。”
人工智能安全作为防止人工智能潜在危害的关键领域,正日益成为公众关注的焦点,人们尤其担心失控的人工智能可能会违背人类利益,乃至导致人类灭绝。
加州一项针对人工智能安全监管的法案在业界激起了两极分化反应:OpenAI与谷歌等巨头表示反对,而Anthropic及埃隆·马斯克(Elon Musk)旗下的xAI则给予支持。
现年37岁的苏茨克维是人工智能领域最有影响力的技术专家之一。今年6月,他与格罗斯(前苹果人工智能项目负责人)及前OpenAI研究员丹尼尔·列维(Daniel Levy)共同创立了SSI。苏茨克维担任首席科学家,列维为次席科学家,格罗斯则专注于算力采购与资金筹集。
苏茨克维称,这一新事业意义非凡,因为他“踏上了一条与过往略有不同的征途”。
值得注意的是,苏茨克维去年还是OpenAI非营利性母公司的董事会成员,但因“沟通不畅”问题,该机构投票罢免了OpenAI的首席执行官山姆·奥特曼(Sam Altman)。
然而,仅仅数日后,他的态度发生了180度逆转,与OpenAI绝大多数员工联名上书,呼吁奥特曼复职并敦促董事会成员辞职。然而,这一转折削弱了苏茨克维在OpenAI的地位。今年5月,他离开了OpenAI公司。
随着苏茨克维的离开,OpenAI也解散了他领导的“超级对齐”团队,该团队曾致力于确保人工智能与人类价值观相契合,为人工智能超越人类智能的未来做准备。
OpenAI独特的公司架构虽源于对确保人工智能安全的考量,却也间接促成了奥特曼被罢免。相比之下,SSI则采用了传统的营利性公司结构,并高度重视招聘与公司文化契合的人才。
格罗斯透露,他们会对每位求职者进行数小时的深入评估,以判断其“品格是否优良”,该公司更看重求职者的非凡才能,而非单纯依赖其行业资历与经验。他补充说:“令我们深感振奋的是,很多人对这项工作本身充满热情,而非仅仅为追逐名利。”
SSI透露,该公司正筹划与云服务提供商及芯片制造商携手,以支持其庞大的计算能力需求,但具体合作对象尚未最终敲定。人工智能初创企业通常会选择微软、英伟达等行业巨头合作,来满足其基础设施要求。
作为缩放定律(Scaling Law)的早期拥护者,苏茨克维坚信,在强大算力的支撑下,人工智能模型的性能将显著提升。这一理念及其实施激发了芯片、数据中心及能源领域对人工智能的投资热潮,为ChatGPT等生成式人工智能技术的崛起铺平了道路。
苏茨克维指出,SSI的扩张策略将与前雇主显著不同,但具体细节暂不透露。他强调:“大家都在谈论缩放定律,却忽视了一个关键问题:我们究竟在扩展什么?有些人可以加班加点,但这种加速前行只不过是在重复老路。这不是我们的风格。我们相信,如果你采取不同的方法,就有可能做出一些真正特别的成就。”(编译/金鹿)