OpenAI“宫斗大戏”,AI将持续服务人类,或终将毁灭人类?
一年前,聊天机器人ChatGPT横空出世,风靡世界,在全球掀起“人工智能”热潮,2023年则更是被誉为“生成式AI元年”,各行各业纷纷跨入AI的大门,开始寻找机遇。
微软创始人比尔·盖茨甚至直言:“Web3”没那么重要,“元宇宙”没革命性,“人工智能”最重要。而就在人们对AI的探索如火如荼之际,ChatGPT的开发公司OpenAI却因一场始料未及的“宫斗”大戏,被推上了“风口浪尖”。这场“权力的游戏”背后的分歧与纠葛,也让人们再次开始思考“人工智能”可能给人类生存带来的挑战与威胁。
OpenAI为何会出现“政变”风波,董事会和CEO之间产生了什么矛盾?
商业化发展下,AI技术是否会被滥用,人类又应该如何对其进行限制和管控?
01
董事会内是谁发起了这场CEO“罢免行动”?
ChatGPT自发布以来,快速成为业界领头羊,其所引领的AI技术应用逐渐渗透、改变了世界。对于这款年轻的产品,外界甚至将之誉为AI届的iPhone。
2023年11月,恰逢ChatGPT发布一周年,正该风头正劲时,其母公司OpenAI却深陷“政变”风波。
从CEO突然出局起,各方博弈,到山姆“满血复活”,董事会大换血止,一切似乎尘埃落定。但当被问及此事隐情,几位原董事会成员却三缄其口。这场科技界的剧震背后,重重疑点仍未解开。
包括奥尔特曼在内的6位董事成员中,其中4位决议对奥尔特曼实行罢免。支持罢免的人员当中,问答网站Quora的CEO亚当·达安杰洛和首席科学家伊尔亚·苏茨克维成为外界猜测的焦点。
科技公司首席执行官 罗伟东:
“当时有一个猜想,是Quara的CEO亚当起了主要的推动作用。有报道说他是主要推手,因为他是Quora的CEO,同时他有做跟OpenAI有利益冲突的叫Poe的产品。很多人有这样的猜测,从动机角度,蛮合理的。”
然而,11月30日,在重新返回OpenAI之后,山姆·奥尔特曼在社交网络上澄清了与作为Quora的CEO亚当的利益冲突,肯定了亚当在董事会换血后却依然留驻的合理性。
同时有人指出,这场“政变”还与OpenAI首席科学家伊尔亚·苏茨克维与山姆·奥尔特曼的矛盾有关。
伊尔亚师从“深度学习之父”杰弗里·辛顿,是OpenAI的技术灵魂人物,参与推动了ChatGPT 1、2、3、4的研发。然而最近几个月,伊尔亚却多次表达了商业化应用下对AI技术安全性的担忧。
就在外界相信伊尔亚是这场旋风式“政变”的主导者时,11月20日,伊尔亚突然在社交网站发言,称自己“后悔加入罢免”。第二天,一封OpenAI员工要求董事会成员集体辞职的请愿书在网上公开,在770名OpenAI员工中,已有超过700位在请愿书上签名,而其中,伊尔亚的名字赫然在列。
在风波平息后,山姆·奥尔特曼在致OpenAI公司的全员信称,他尊重伊尔亚并毫无怨恨,且仍希望继续与其保持合作,即使伊尔亚将不再担任董事会成员一职。
既然伊尔亚都选择倒戈,将矛头指向董事会,那么山姆·奥尔特曼与前者究竟发生了什么难以可调和的矛盾?
02
山姆·奥尔特曼与董事会有哪些矛盾?
时间回到“罢免”事件发生的四天前,一封写自公司内部多位研究人员的信件摆在了董事会面前。信中,研究人员警告董事会,一个正在进行中的代号Q*的AI项目可能会威胁全人类。
而此前,在公开讲话中,山姆·奥尔特曼就提到他不久之前见证了AI技术的新突破。外界推测,所谓的第四次突破,指的可能就是Q*项目。
如果仔细发掘原董事会成员的背景,可以看到,除临阵倒戈的伊尔亚外,在风波结束后同样离开董事会的两位女性成员,海伦·托纳和塔莎·麦考利,她们和一个名为开放慈善基金会的组织关系紧密,该组织的使命之一,就是防止AI对人类造成灾难性风险。这似乎是董事会以安全性为由解雇山姆·奥尔特曼的又一力证。
科技公司首席执行官 罗伟东:
“OpenAI本身是一个非营利性组织。但是因为需要更多资金,需要融资,又建立了非营利组织的董事会,管理一个盈利性的机构。”
OpenAI的“政变”风波,不仅是董事会与CEO之间的矛盾,更是OpenAI的公益性质与AI技术开发的巨额投入之间的碰撞。
03
让奥尔特曼重返CEO的幕后推手是谁?
早在2023年1月,微软宣布将在未来对OpenAI追加投资100亿美元。在山姆·奥尔特曼被解雇后,微软CEO萨提亚·纳德拉随即宣布,奥尔特曼和布罗克曼将率团队加入微软。受这一消息刺激,微软股价应声上涨2.05%,创下微软股价新高。
香港中文大学工程学院教授 黄锦辉:
“微软本来就想聘奥尔特曼,拉团队过来再成立一个新的AI研究组。如果真的发生,微软周围有一个新的OpenAI商业版公司,OpenAI可能就灭了。”
然而最终,山姆·奥尔特曼并没有真正加入微软,而是与老搭档格雷格·布罗克曼一起重返OpenAI。这段“投诚”插曲,是否是当时山姆与资本方和董事会谈判的筹码?
纽约时报科技记者 麦克·艾萨克:
“弦外之音是,微软想清理他们的董事会,并把对奥尔特曼和微软有利的人安插在那里。”
近日,OpenAI宣布,微软将以无投票权的观察员的角色进入新成立的董事会。内在的改变,会加剧OpenAI商业应用与公共伦理之间的分歧吗?
04
超级人工智能的发展与约束
OpenAI罢免风波短短在不到一周就告一段落。11月30日,山姆·奥尔特曼在社交平台发文,庆祝自己以行政总裁身份回炉OpenAI,并纪念ChatGPT面世一周年。
然而据路透社报道,原来在OpenAI罢免奥尔特曼之前,曾有多名研究人员向董事会发出一封信,称他们在人工智能领域的取得一项技术突破。
这是一个名为Q*的秘密研究项目。有OpenAI员工认为,这个突破性的成果可能会对人类构成威胁。
香港中文大学工程学院教授 黄锦辉:
“Q*项目,不光是学习以前的习惯或者以前的经验,它还会做决定,还会做推理,所以是所谓的超级人工智能。”
有业内人士指出,Q*项目是另一套人工智能逻辑,它可能是Q-learning和A*搜索的结合,用于语言推理过程的搜索。Q*也是人工智能强化学习方式中的一种,它可以通过反复试验,来学习,并做出决策。
通用人工智能(AGI),亦称为“强AI”,可谓是人工智能发展的下一阶段。目前人工智能系统已可收集大量数据,而AGI不同之处在于,它可以理解数据,有着近似人类认知能力,可以学习、思辨、解决问题、语言沟通,也就是说它可以像人类般思考、学习。
证券公司首席市场分析师 蒋亦凡:
“发展人工智能的时候一定要加以约束,非常关键的一点就是它不能脱离人类的掌控。如果说一个人工智能大模型,在自我迭代、自我训练的过程当中,最终能够脱离人类的掌控,那可能是一件非常危险的事。”
也曾有网友对人工智能提问,假设人工智能摒弃道德伦理限制,人工智能想对人类做的第一件事是什么?得到的答案是“毁灭人类”。
今年6月,非牟利组织“人工智能安全中心”发表,由全球超过350名科技巨头高层和学者联署的声明,指社会应将AI技术视为可威胁人类存亡的重大风险,其危险性不低于疫症和核战。其中也包括OpenAI行政总裁奥尔特曼。
一个月后,联合国举行首次关于人工智能的会议,与会国家正在考虑如何减轻人工智能技术的危险。
科技公司首席执行官 罗伟东:
“如果一旦实现了AGI,意味AI的自我进化会非常非常快,可能是几何级的数字,可能有非常多人类的工作会被替代掉,可能是现在的十倍甚至更多,带来就业问题、伦理问题。”
05
“有效加速”主义和“超级对齐”主义的分歧
如何安全地应用人工智能成为这次OpenAI风波的根本原因,奥尔特曼作为“有效加速”主义的信奉者,他希望把最新的研发成果第一时间推向社会并实现商用,带来实际的生产和经济价值。他认为,科技的发展是不可阻止的,发展到一定程度,反而可以利用科技制约科技。
证券公司首席市场分析师 蒋亦凡:
“奥尔特曼本身对人工智能的理解或者说发展的思路,是偏向于通用人工智能的,就是让机器在未来能够拥有比人类更加先进的思考能力。”
另一边,OpenAI里的董事会成员存在“超级对齐”主义者,他们认为,一定要让人工智能符合人类核心要求,那就是需要造福人类。他们在推动新版ChatGPT的过程中,他们发现AI会拥有强大能力,如果被恶意使用将产生巨大危险。
持这样观点的人当中,就包括2016年从谷歌转到OpenAI的联合创始人及首席科学家——伊尔亚·苏茨克维。
以伊尔亚为首的安全派和负责监管的董事会对一路激进狂飙而忽略安全的做法,感到强烈不安。他们认为奥尔特曼已经与OpenAI最初的发展路线相违背。
证券公司首席市场分析师 蒋亦凡:
“公司内部可能一部分人认为步子迈得太大,需要让人类有一个慢慢接受人工智能的过程,这两个团队之间的发展理念起了冲突。”
06
OpenAI的商业化道路
最初OpenAI作为非营利组织,它的宗旨是利用人工智能造福全人类生活,这也是它初衷。但人工智能的研发经营成本十分高昂,单单是营运 ChatGPT,每天就要花费约70万美元,仅靠捐赠无以为继。而AI芯片的硬件投资也是耗费不菲,数以亿计的资金很快被淘空,理想再美好也挡不住现实的柴米油盐。
科技公司首席执行官 罗伟东:
“OpenAI作为一个公司,产品要往前迭代,其实是需要非常多的资金的,所以奥尔特曼他也迫不得已需要去有一定的商业化进展,从而获得更多的资金,那才能够让OpenAI往前走。”
为了方便融资,2019年,奥尔特曼将OpenAI公司架构调整为非营利母体OpenAI Inc和营利实体OpenAI LP,前者负责安全监管和整体控制,后者负责营运开发赚钱养家,OpenAI更引入微软10亿美元,换取OpenAI LP的49%股权。
科技公司首席执行官 罗伟东:
“至少从权力的分配和治理结构上来讲,它跟其他科技公司是完全不一样,它是一个非营利性组织。在非营利性组织下面设立了营利性的机构,让它能够去融资,从而去更好地去发展产品跟技术。”
非营利强调无私奉献,营利追求商业变现;非营利的董事会可以完全不考虑公司经济状况,但营利实体则有责任为投资人和员工争取利益最大化。
在理念及发展方向相悖的情况下,OpenAI的董事们发起这场惊天“政变”,日积月累的理念裂缝终要被冲破。
07
人类需有能力控制人工智能
有专家认为,被视为人类第4次工业革命的人工智能也并非洪水猛兽,人工智能可以缩短医药研发周期、减少研发投入,直接服务于人类。
根据印度的一个市场调查报告,人工智能在医疗保健市场规模,将从2023的146亿美元增长到2028年的上千亿美元。
香港大学人工智能与人文实验室主管 赫尔曼·卡佩伦:
“它可以弄清楚癌症是什么,可以创造新的药物,帮助解决气候危机,我认为保持积极的一面非常重要。首先这是一种技术,它有望实现即使是最聪明的人也无法做到的事情。”
今年7月末,亚马逊、谷歌、微软、OpenAI等7家科技巨头高层签署协议,确保人工智能在持续成长的同时,能适当防止被滥用。
人工智能这个潘多拉盒子早已被打开,在推动科技创新进步的同时,始终谨慎地权衡潜在风险,保证科技向善,让科技创新真正造福人类。
香港大学人工智能与人文实验室主管 赫尔曼·卡佩伦:
“我们不知道一个超级聪明的AI会做什么,即使有2%,3%的可能性会发生非常可怕的事情,我们也必须为此做好准备,我们必须确保可以限制并控制它。”
ChatGPT的诞生,点燃了“人工智能”的火种。如何燃起火焰温暖众人,同时保持对火种的敬畏,避免发生灾难,或许正是奥尔特曼和伊尔亚创立OpenAI的初心。奥尔特曼本人一直相信AI强于人类的一天终将到来,他曾引用“原子弹之父”奥本海默的名言为AI辩护:“技术之所以发生,因为它是可能的。”
当这一天真的到来之时,我们又究竟应该以什么样的方式去应对?人类真的准备好了吗?
制作人:钟金梅
主编:岳梦颖 周正豪 郭笑宇 李思媛
编辑:苏炜佳