当前位置:首页|资讯|OpenAI|阿尔特曼|人工智能

AI文化战争已来?OpenAI 治理冲突点燃导火索! ​

作者:商学院杂志发布时间:2024-01-09

原标题:AI文化战争已来?OpenAI 治理冲突点燃导火索! ​

文|胡嘉琦

ID | BMR2004

封面 | 社交平台X

全球最炙手可热的公司OpenAI 正在经历前所未有的人事动荡。创始人山姆·奥特曼(Sam Altman)在短短2天之内遭遇解雇,而这并不是最终的结局,获得资本认可的奥特曼很可能重返CEO的位置。

北京时间11月20日5时许,奥特曼在社交平台X(前 Twitter)发文称,“这是我第一次也是最后一次戴这个。”配图是他佩戴着OpenAI的访客工牌,出现在旧金山总部。

据凤凰科技报道,OpenAI的内斗大戏目前仍在上演中,该公司想把刚刚被他们驱逐的前CEO奥特曼请回去,但是后者提出了董事会集体辞职的要求,遭到了董事会的抵制。

奥特曼究竟是什么原因被解雇,有可能复职吗?

据OpenAI公司称,奥特曼“在与董事会的沟通中没有始终保持坦诚,妨碍了董事会履行职责的能力”。但没有提供其他细节。

据多家媒体报道,微软是OpenAI 最大的支持者,持有其超过100亿美元的股份,微软公司正与包括 Thrive Capital 和老虎环球管理公司在内的投资者合作,让奥特曼复职。据彭博援引接近奥特曼的人士表示,奥特曼对复职事宜持开放态度。

OpenAI 成立于2015年,是一家研究和部署人工智能的非营利组织,确保人工智能造福全人类是OpenAI对未来人工智能的愿景。然而,随着OpenAI 在2019年成立子公司并引入战略投资者,非盈利组织的概念就有所变化。

一方面,OpenAI还保持非盈利组织的定位;另一方面,OpenAI的子公司能够发行股票筹集资金,其拳头产品ChatGPT 发布后,OpenAI公司的估值一度高达860亿美元。而微软作为第一大股东,拥有OpenAI 49%的股份,微软在OpenAI的股份价值将达到400亿~450亿美元。

据彭博报道,微软首席执行官萨蒂亚·纳德拉(Satya Nadella)一直与奥特曼保持着联系,并承诺无论他下一步采取什么措施,都会给予支持。

01

公司治理的争议:董事会冲突及其角力

11月6日,奥特曼在 Open AI DevDay(开发者大会)上公布了一组数据:自从聊天机器人发起人工智能军备竞赛以来,ChatGPT的月用户数量已经突破了1亿大关。站在事业顶峰的奥特曼意气风发。

不过只是过去了两周的时间,11月17日,据 OpenAI 官网周五博文,奥特曼在公司董事会进行审查后被解雇,首席技术官米拉·穆拉提(Mira Murati)被任命为临时首席执行官领导 OpenAI,目前公司也正在物色永久继任者。

突如其来的解雇,让奥特曼猝不及防。同时感到震惊的还有OpenAI的联合创始人兼总裁格雷格·布罗克曼(Greg Brockman),他在声明中表示,“对董事会今天的所作所为感到震惊和难过”。布罗克曼说,奥特曼周五中午被要求参加与董事会的视频会议,并立即被解雇。

此后,奥特曼在社交平台 X上发表了一篇关于自己下台的文章,“我喜欢在 OpenAI 工作的日子,如果我离开,OpenAI董事会会追查我股票的全部价值。”

OpenAI 成立于 2015 年,是一家非营利组织,其核心使命是确保人工通用智能造福全人类。2019 年,OpenAI 进行了重组,以确保公司能够筹集资金来实现这一使命,同时保留非营利组织的使命、治理和监督。董事会的大多数成员都是独立董事,独立董事不持有 OpenAI 的股份。虽然公司经历了巨大的发展,但推进 OpenAI 的使命和维护其章程的原则仍然是董事会的基本治理责任。

在OpenAI团队看来,人工智能研发是资金密集型的。其网站显示,这家非盈利组织启动时的目标是获得 10 亿美元的捐款。然而,多年来,OpenAI 的非营利组织共收到约1.305 亿美元的捐款,这些捐款用于资助非营利组织的运营以及深度学习、安全性和人工智能对齐(编者注:研究如何使人工智能与我们的目标保持一致并防止其失控)方面的初步探索工作。

随着时间的推移,仅靠捐款无法满足推进核心研究所需的计算能力和人才成本。因此,OpenAI设计了一种架构,既能保留非营利组织的核心使命、治理和监督,又能筹集资金。

OpenAI 非营利组织将保持不变,其董事会将继续作为所有 OpenAI 活动的总体管理机构。

一个新的营利性子公司将成立,能够发行股票筹集资金和雇佣世界级人才,但仍受非营利组织的领导, 营利性公司在法律上必须履行非营利性公司的使命,并通过从事研究、开发、商业化和其他核心业务来完成这一使命。同时,从事营利活动的员工将被转到新的子公司,也就是OpenAI Global,LLC。

图说:OpenAI公司架构;来源:OpenAI 官网

非营利组织仍将是OpenAI结构的核心,并控制着AGI(意指在最具经济价值的工作上胜过人类的高度自主系统)的发展,而营利组织将负责调配资源以实现这一目标(什么目标?),同时仍有责任履行 OpenAI 的核心使命。使命至上的原则已写入营利机构OpenAI Global,LLC的运营协议中,每位投资者和员工都必须遵守。

虽然投资者通常追求经济回报,但都需要遵守OpenAI几项关键的经济和管理规定,以此实现经济回报与使命的平衡。

第一,其中最重要的一点是设置利润封顶分配模式,这表明包括微软在内的投资者和员工的利润是有上限的。所有超出上限的剩余价值都将返还给非营利组织,以造福人类。

第二,营利性子公司完全由 OpenAI 非营利组织控制。OpenAI通过让非营利组织全资拥有和控制一个管理实体(OpenAI GP LLC)来实现这一点,该实体有权控制和管理营利性子公司OpenAI Global,LLC。

第三,由于董事会仍是非营利组织的董事会,因此每位董事都必须履行受托人职责,以促进其使命的完成。虽然允许营利性子公司赚取和分配利润,但它必须服从这一使命。非营利组织的主要受益人是人类,而非 OpenAI 投资者。该公司的董事并不像大多数公司董事会那样,负责为股东创造最大价值,而是受信托责任的约束,创造安全的人工通用智能。

第四,董事会仍以独立董事为主。独立董事不持有 OpenAI 的股份,甚至 OpenAI 的奥特曼也不直接持有股权,他唯一的权益是通过 Y Combinator 投资基金间接持有的,该基金在他于OpenAI担任全职之前对 OpenAI 进行了小额投资。

虽然OpenAI与微软的合作包括数十亿美元的投资,但 OpenAI 仍然是一家完全独立的公司,由 OpenAI 非营利组织管理。微软没有董事会席位,也没有控制权。而且,如上所述,AGI 被明确排除在所有商业和知识产权许可协议之外。

OpenAI 表明,选择微软作为计算和商业合作伙伴的原因是因为从一开始微软就接受了OpenAI 的最高股权报价,并接受了OpenAI 将 AGI 技术和管理留给非营利组织和全人类的请求。

OpenAI GP LLC由 OpenAI 非营利组织董事会管理,董事会成员包括 OpenAI Global, LLC 员工格雷格·布罗克曼(董事长兼总裁)、伊利亚·苏茨克沃(Ilya Sutskever,首席科学家、独立董事)和奥特曼(首席执行官),以及非员工亚当·德安杰洛(Adam D'Angelo,Quora 首席执行官)、塔莎·麦考利(Tasha McCauley,技术企业家)、乔治城安全与新兴技术中心的海伦·托纳(Helen Toner)。

作为此次过渡的一部分,布罗克曼将卸任董事会主席一职,但他仍将留在公司,向首席执行官汇报工作。

据彭博报道,作为恢复首席执行官职务的努力的一部分,投资者还在敦促更换现任董事会。这些人说,董事们已经考虑过下台,尽管他们目前对这一举动持反对态度。情况还在变化,最终计划尚未确定。如果董事会下台,投资者正在审查一份可能的新董事名单。Salesforce Inc.前联席首席执行官布雷特·泰勒(Bret Taylor)是竞争者之一。

OpenAI 董事会撤换奥特曼的决定受到了强烈批评,这让投资者和奥特曼本人都感到意外。支持 OpenAI 的公司对让奥特曼下台并不满意。

据《福布斯》消息,投资人有计划通过高级研究人员的大规模抗议、扣留Microsoft的云计算积分以及可能来自投资者的诉讼的综合手段,旨在让OpenAI的新管理层(由临时首席执行官Mira Murati和剩余的董事组成)接受他们的现状是不可持续的。

微软CEO Satya Nadella是奥特曼的全力支持者之一。分析人士认为,“微软在此事件中拥有的巨大影响力在于OpenAI仅获得微软最近100亿美元投资的一小部分,其中相当一部分以云计算服务的形式提供,而非现金。中止提供这些云计算服务以及其他现金投资可能会导致OpenAI陷入财务困境,因为运营和AI系统培训的成本持续增加。”

同时,据彭博报道,Thrive公司本应牵头对员工股份进行要约收购,但目前尚未汇入资金,并已向OpenAI明确表示,奥特曼的离职将影响其行动。Thrive是除微软外OpenAI最大的投资者,它正努力让奥特曼和布罗克曼复职,如前所述,布罗克曼是OpenAI公司的总裁,他于上周五辞职以示抗议。其中一些人表示,奥特曼对重返公司持开放态度。不过,他们表示,如果奥特曼回归,他将要求改变公司的管理方式。

在奥特曼“被解雇”后,OpenAI多名员工已经离职以示抗议。这些人表示,辞职可能还会继续。

据科技媒体The Verge报道,奥特曼一直在考虑成立一家新的企业,可能会与 OpenAI 的前员工一起。

02

创新与安全之争,营利与非营利之争

据《福布斯》援引知情人士消息,OpenAI董事会解雇奥特曼之前,员工之间就公司是否足够安全地开发人工智能展开了内部争论。

在被解雇后的一次临时全员会议上,一些员工对这些分歧意见很大。根据会议记录,OpenAI董事会成员,担任首席科学家的伊利亚·苏茨克沃就人工智能可能对社会造成的危害发起了一连串提问。

在一些员工看来,奥特曼在软件商业化方面进展过快,为了价值十亿美元的业务,牺牲了潜在的安全问题。

纽约时报作者凯德·梅兹(Cade Metz)、迈克·伊萨(Mike Issa),艾琳·格里菲斯(Erin Griffith)在“奥特曼正在与公司董事会讨论重返OpenAI事宜”中提出,奥特曼离职大概率会助长人工智能行业的文化战争,即认为应该允许人工智能更快发展的人和认为应该放慢发展速度以防止潜在灾难性伤害的人之间的战争。

近几个月来,随着监管机构开始对人工智能行业进行管理,这种争论也变得越来越激烈,业内将其称为 “加速论者”和 “毁灭论者”之间的争论。

一些著名的加速论者认为,大型人工智能公司正在游说制定一些规则,这些规则可能会让小型初创公司更难与之竞争。他们指责行业内的安全倡导者为了巩固自己的地位而夸大人工智能的风险。另一方面,安全倡导者则发出警告,认为OpenAI和其他公司在建立强大的人工智能系统方面进展过快,忽视了谨慎的声音。一些怀疑论者指责这些公司窃取艺术家、作家和其他人的版权作品来训练他们的模型。

据《纽约时报》报道,OpenAI董事会中至少有两名成员,塔莎·麦考利和海伦·托纳,与“有效利他主义”运动(Effective Altruism movement)有联系,该运动是一个受功利主义启发的团体,曾推动人工智能安全研究,并发出警报称,强大的人工智能系统有朝一日可能导致人类灭绝。

对于人工智能的态度,奥特曼在支持与担忧中游走,他多次表示,相信人工智能最终将造福人类,同时,他也同意人工智能需要合理的设计保证其安全性。

多年来,关于人工智能能否带来风险的争论在OpenAI内部涌动。2020 年,OpenAI 的一批员工因担心公司会过于商业化,将利润凌驾于安全之上而选择辞职,辞职的员工创办了Open AI的竞品公司Anthropic人工智能实验室。而据《纽约时报》援引接近Open AI人士表示,一些员工认为奥特曼先生和布罗克曼先生在开发新产品时过于激进。

奥特曼对人工智能的态度并非非黑即白。在接受《纽约时报》的采访时,奥特曼说他认为自己在人工智能辩论中属于中间派。他表示,“我相信这将是人类有史以来发明的最重要、最有益的技术。我也相信,如果我们不小心对待它,它可能会带来灾难性的后果,因此我们必须小心驾驭它。”而他也认为,Open AI这家公司的首席执行官应处于中间位置,而他正是最合适的人选。

奥特曼的商业行为也引发了一些质疑。一位名为Anxious_ Bandicoot126 的用户在Data Learner(数据学习者官方网站)留言表示, 奥特曼和OpenAI在没有充分安全审查的情况下就匆忙将技术推向市场表示担忧,这是想快速变现的做法。OpenAI似乎越来越注重名利,而不是坚持作为一个负责任的非营利组织的原则。奥特曼单方面做出的商业决定以盈利为目的,与公司创立之初的使命背道而驰。当奥特曼提出 ChatGPT 商店和收入共享时,这就越界了。这表明OpenAI的核心价值观受到了威胁,因此董事会做出了艰难的决定,解除了奥特曼职务。OpenAI前首席技术官米拉·穆拉提接任首席执行官一职后,我们有希望重拾工程驱动的使命,即开发人工智能安全产品,造福世界,而不是股东。

03

科技方向的角力还是纯粹的政治斗争

这一事件的背后,是科技方向的角力还是纯粹的政治斗争?

几年来,奥特曼在人工智能商业化路上越走越远,然而,OpenAI 内部有另一股力量更担忧人工智能快速商业化的风险性,这股力量是此次OpenAI管理层更迭的关键力量,这一观点的核心人物是苏茨克沃,他是首席科学家,同时也是 OpenAI 董事会的成员。

苏茨克沃在接受《麻省理工科技评论》(MIT Technology Review)采访时表明,他的新研究重点是如何防止人工超级智能超越人类,尽管目前所知人工智能还不存在失控问题,但人工智能可能会在10年内超越人类。

苏茨克沃出生于前苏联,但从五岁起就在耶路撒冷长大。之后,他在多伦多大学师从人工智能先驱杰弗里·辛顿(Geoffrey Hinton),后者被称为“人工智能教父”。杰弗里·辛顿提出,“人工智能公司正在通过积极创建生成式人工智能工具(如 OpenAI 的 ChatGPT),朝着危险的方向狂奔。”他对《纽约时报》说:“你很难看出如何防止坏人利用它干坏事”。

据彭博社援引匿名消息人士称,OpenAI领导层调整的核心是人工智能安全问题,苏茨克沃与奥特曼在如何快速商业化人工智能生成产品以及减少潜在公共危害所需采取的措施方面存在分歧。

苏茨克沃在接受《科技评论》表示:“显然,任何人构建的任何超级智能都不能失控,这一点非常重要。

苏茨克沃和同事扬·雷克(Jan Leike)撰写了一份 OpenAI 公告中提出,一个关于超级智能对齐(或称“超级对齐”)的项目。他提出,虽然超级智能可以帮助“解决世界上许多最重要的问题”,但它也可能“非常危险,可能导致人类丧失权能,甚至人类灭绝”。

显然,奥特曼的被“去职”并不是一个单纯的公司事件,它突显了人们在人工智能未来发展路径上的激烈冲突。无论是对人工智能的发展,还是对人类的未来,这都将是一个关键的节点,选择至关重要。

在商业利益与使命面前,OpenAI能否坚持初心,未来的科技又将会把人类带来怎样的世界,让我们拭目以待。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1