当前位置:首页|资讯|OpenAI

OpenAI内乱背后:当AI的“野心”撞击人性的弱点

作者:深圳客发布时间:2023-11-21

原标题:OpenAI内乱背后:当AI的“野心”撞击人性的弱点

文|呙中校

OpenAI的内乱,其实是人类面对AI奇点到来之时的预演。

在AI的世界里,对齐(Alignment),指让人工智能的行为符合人的意图和价值观。这是AI的紧箍咒:一个大模型经过预训练之后就要对齐,否则,模型可能会在某个时刻发生意想不到的故障,甚至危害人类安全。

短短几天,OpenAI的首席科学家、也是OpenAI这次内乱的主角伊利亚·苏茨科夫(Ilya Sutskever)从出离愤怒转为极度沮丧,从刚开始对齐AI的理想主义,最后不得不让自己对齐人性,跟随OpenAI在一份要求解散董事会的公开信上签名。

萨姆·阿特曼(Sam Altman)注:AI生成

11月20日晚,OpenAI共有743名员工(超过96%)发出公开信,要求解散董事会,否则大家都将辞职,跟随山姆·阿特曼(Sam Altman) 加入微软的新团队。

从左到右分别为米拉·穆拉蒂、山姆·阿特曼、格雷格·布罗克曼、伊利亚·苏茨克维

而这场内乱就是伊利亚自己发动的,结果成为全球关注的头条事件。其背后,是人工智能迎来重大技术突破……伊利亚说:“超级人工智能会看到人类看不到的东西。”

伊利亚在担心什么?

作为一手推动GPT大模型诞生的伊利亚,比谁都更重视对齐,他跟他的老师辛顿(2019年图灵奖获得者)一样,深知AI发展可以触及的高度,而人类必须提前做好技术上的准备——给AI加上紧箍咒。

人类必须提前做好技术上的准备——给AI加上紧箍咒

在伊利亚看来,人工智能的“孙悟空”早在2022年初就已经放出来了,但是紧箍咒一直还没准备好。

2022年初OpenAI推出了GPT 3.5,其强大的性能在公司内部引发震动,有人惊喜,有人担忧。GPT的缔造者伊利亚便深感忧虑。2022年2月,他在推特上说:“今天的大型神经网络可能具有轻微的意识。”

伊利亚发出这条推时,外界没有多少人关注到其中蕴藏的信息量。但是伊利亚心里清楚,他的老师辛顿清楚,山姆·阿特曼、马斯克等人也清楚……他们担心的“孙悟空”即将破石而开。

选之子与OpenAI

这会让伊利亚想起十年前的惊喜时刻。

当时,他和老师辛顿、同学Alex组成的“师徒三人组”用深度学习算法,利用两张GPU,打败了谷歌几十台服务器组成的AI系统,赢得了ImageNet竞赛第一名,把AI图像识别率的错误降低到与人类差不多的水平,从而在全球引爆深度学习革命。

俄罗斯出生、耶路撒冷长大的伊利亚·苏茨科夫,是天才少年。他在ImageNet竞赛中成功后意识到,深度学习可以解决任何模式识别问题,只要你有一个深度神经网络训练大量的数据。

“师徒三人组”用深度学习算法,赢得了ImageNet竞赛第一名

但也有不少人觉得不可思议,深度学习简直就是一个黑箱——把一堆数据喂给它,然后给你一个漂亮的结果——这不就是21世纪的“炼金术”吗?

虽然不可解释,但是“炼丹”炼出来的丹药的确好用。谷歌迅速将师徒三人收归旗下。然而,深度学习带来的AI发展日新月异,让人越来越感到技术的威胁。

AI的发展日新月异,让人越来越感到技术的威胁

马斯克、阿特曼、风投之王Peter Thiel、LinkedIn创始人Reid Hoffman等人不仅担忧AI发展的威胁,而且也担心谷歌垄断AI技术带来的弊端。2015年他们几个人经常组织派对,讨论如何以AI打败AI。于是他们决定搞一个非盈利组织,让所有人都能用上AI,一是避免谷歌的垄断,二是技术开放,更有利于解决AI的问题,这就是OpenAI的由来。

谁有这个技术领军能力呢?老师辛顿不仅年纪大,而且脊椎受损,不能长时间站立,同学Alex在谷歌赚得盆满钵满,早有退休打算。唯一的人选就是——伊利亚·苏茨科夫。

伊利亚·苏茨克维(Ilya Sutskever)(来源:《麻省理工科技评论》)

伊利亚简直就是天选之子!他不仅才华横溢,马斯克说他是“最接近AGI(通用人工智能,也就是AI的奇点)”,而且和他的老师辛顿一样,对人类命运有强烈的使命感和责任感。

马斯克、阿特曼等人关于AI的理念让伊利亚心动,而且给出了190万美元的年薪。谷歌这边知道后马上开出更高的薪水,但还是没能留住伊利亚。

2015年12月11日,OpenAI宣告成立,伊利亚成为联合创始人。OpenAI当时的技术研发主要由伊利亚担纲进行。他说:“有可能在我们的有生之年,我们将建立一个在每个有意义的维度上都具有认知能力的人工智能系统。”

2015年,OpenAI宣告成立,伊利亚成为联合创始人

在刚开始的一年多,OpenAI取得了一系列的技术成就,但是在寄予厚望的AGI上始终没有突破。直到2017年初,伊利亚等人看到前谷歌同事发的一篇论文《注意力足矣》(Attention is all you need),让他灵光闪耀:“我们就用这个。”

这就是几乎所有大模型都采用的算法Transformer。

伊利亚意识到Transformer的巨大价值所在,仅采用了Transformer的解码器架构,着手进行生成式AI大模型的设计。

在工程技术上,正是OpenAI的强项

其后不久OpenAI推出了GPT1,但几乎没受到什么关注,直到GPT2推出才让大家感到惊艳。

当时谷歌对生成式AI没太大兴趣,在Transformer的利用上也不定性。但伊利亚认为对于AGI之路有两个基本信念,一个就是“暴力出奇迹”——扩大参数规模能提升模型的性能。黄仁勋曾问他:“在这个(GPT研发的)过程中,你一直相信,扩大规模会改善这些模型的性能吗?” 伊利亚回答道:“这是一个直觉。我有一个很强烈的信念,更大意味着更好。”

“我有一个很强烈的信念,更大意味着更好”

另一个是“自然语言是通向AGI的必经之路”,一通万事通,如果能像人类一样理解自然语言,自然也能掌握世界。语言,是人类智能的象征。OpenAI只需让AI“做好一件事”,掌握人类语言即可。

这便是OpenAI持续推动生成式AI的动力。GPT3.5的成功,让他们看到了AGI的曙光。

AI奇点来临前的预演

在ChatGPT火爆后,伊利亚接受《麻省理工科技评论》专访时说,他自己并不打算构建下一个 GPT,而是打算弄清楚如何阻止超级人工智能变得不受控制。作为未来主义的信徒,他认为这种仍处于假设的未来技术终将出现。

在“孙悟空”可能问世之前,伊利亚迫切需要打造一个“紧箍咒”,试图将重心转向人工智能对齐。

今年7月,OpenAI 公布了由伊利亚主导的“超级对齐(Superalignment)” 计划,宣布将一次性拿出总算力中的 20% 投入,目标是在 4 年时间内解决超级智能对齐的核心技术挑战,以保证人类对超级智能的可控。

OpenAI官网宣布开始构建超级对齐系统

然而,“紧箍咒”还没准备后,“孙悟空”已经蠢蠢欲动。11月初,OpenAI 技术团队实现重大突破,AI展现了“令人担忧的自主性阈值”。这一技术突破成为OpenAI 内部割裂的直接原因。

伊利亚认为,这一突破的架构足以达到 AGI。但阿特曼主张推迟,另一方面却对外积极融资,准备利用这一技术突破来实现自己宏大的商业抱负,包括开发张量芯片TPU等。

OpenAI成立之初有一个“非盈利性条款”,大意是说一旦达到AGI的门槛,那么就必须停止一切的商业合作,也意味着现在与微软的合作都将停止。因此,阿特曼希望推迟称其为 AGI,因为推迟的时间越长,收入潜力就越大。但伊利亚希望尽快将其申报为AGl,这样它只能用于公司既有的非盈利性原则,而不能用于牟取暴利。

阿特曼希望推迟称其为 AGI

在沟通不畅的情况下,伊利亚拉着两名年轻的工程师参加董事会,向其他三位来自社会的独立董事介绍了最新的技术进展。这个技术进展自然让三位独立董事大感惊诧,认为山姆·阿特曼对董事会隐瞒了重要信息,于是便有了后来的故事……

6位董事中有3位来自外部,他们既不是投资人,也不在公司任职,但是却在公司经营上有着重大决策权。这种奇葩的董事结构,最早也来自OpenAI非盈利性理想主义。后来山姆在经营中越来越感觉到商业运营的重要,但是公司从理念到董事会架构上没有做出相应的调整,这是OpenAI内乱的直接原因。

马斯克充分信任伊利亚的人品

我一直称之为“内乱”,而不是“内斗”“政变”“权斗”等,因为他们都是一群有情怀有担当的人,包括那三位独立董事。山姆是想在商业现实和理想之间求得平衡,而伊利亚则是对未来忧心忡忡,因此情绪化的表现让这家伟大的公司陷入混乱之中。

虽然伊利亚忧心忡忡,但是OpenAI的大多数员工还是认可阿特曼的选择,因此在推特上纷纷表示:“OpenAI没了人,什么都不是。”

他们都是一群有情怀有担当的人

伊利亚最终向人性对齐,11月20日他在推特上表示了深深的悔意:“我对自己参与董事会的行动深感遗憾。我从来没有想过要伤害OpenAI。我热爱我们共同建立的一切,我将尽一切努力让公司重新团结起来。”阿特曼同志则给了他三个大大的赞。

OpenAI的内乱,其实是人类面对AI奇点到来之时的预演,只不过是天才如伊利亚这般,才能看穿未来。

在形势一边倒的情况下,OpenAI的员工或许将迎回阿特曼,但是更大的挑战在后面。

文|呙中校

图片来自网络

今日话题

聊聊你对未来AI的担忧?

留言区聊聊~


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1