综合外媒报道,当地时间6月19日,OpenAI前首席科学家、联合创始人伊尔亚·苏茨克维(Ilya Sutskever)宣布创立一家名为“安全超级智能”(Safe Superintelligence)的人工智能公司,该企业旨在开发比人类更聪明但不危险的人工智能技术。
OpenAI前首席科学家、联合创始人伊尔亚·苏茨克维 视觉中国 资料图
据彭博社19日报道,自五月中旬苏茨克维宣布从Open AI离职后,这是他首次透露自己在人工智能领域的新项目。这家企业另有两名联合创始人,一位是前苹果公司AI负责人丹尼尔·格罗斯(Daniel Gross),他因投资多家知名AI初创公司而备受瞩目,还有一位是前OpenAI研究员丹尼尔·利维(Daniel Levy),他与苏茨克维一起在OpenAI训练大型AI模型,建立了良好的声誉。
去年11月,苏茨克维与其他OpenAI的董事会成员一道将公司的首席执行官萨姆·奥尔特曼(Sam Altman)免职后,被数百名员工以辞职相威胁,最终奥尔特曼又回到公司继续任职。谈及与奥尔特曼的关系时,苏茨克维只说“很好”,并表示奥尔特曼“大致了解”这项新业务。
苏茨克维表示,“这家公司与众不同之处在于,它的首款产品将是安全的人工智能,在此之前它不会做其他任何事情”。这个项目的关键是要确定究竟是什么让一个AI系统比另一个更安全,换句话说,确保它绝对安全。目前苏茨克维对此语焉不详,但他表明新公司会尝试通过将工程技术的革命性突破融入AI系统来提升安全性,“我们所说的安全是指像‘核安全’那样的安全,而不是像‘信任和安全’那样的安全,”他说。
苏茨克维拒绝透露该公司的投资人和已筹集到的资金数目。随着人工智能的不断发展,其背后的算法愈发庞杂,需要大量资金作为其进一步发展的必要支持。这一经济现实与“安全超级智能”最终目标落地的不确定性,使得“安全超级智能”对投资者来说是一个巨大的赌注,他们将押注苏茨克维和他的团队能够取得突破性进展,并在人工智能领域遥遥领先。不过鉴于创始团队的背景和人们对这一领域的浓厚兴趣,资金筹集将不是问题。
人工智能领域的研究人员几十年来一直在关注并探索如何使AI朝着符合人类利益的方向发展,但如何防止AI系统失控仍是一个缺乏深入探讨的问题。苏茨克维认为从最基本的角度来说,安全的人工智能不会大规模地危害人类,在达到这一标准之后,它可以基于一些关键价值观来运行,比如自由、民主和个人权利。
苏茨克维说,主导人工智能的庞大语言模型将在“安全超级智能”中发挥重要作用,但其目标是实现更强大的东西。目前的系统是人们与其对话得到问题的答案后,这一系统流程就告一段落了。而他追求的则是更通用、能力范围更广大的系统,是一个能够自主开发技术的巨型超级数据中心。