当前位置:首页|资讯|马斯克|ChatGPT|OpenAI

马斯克跳反ChatGPT:AI会摧毁文明甚至毁灭人类

作者:腾讯新闻深网发布时间:2023-04-01

作者 | 程潇熠

编辑 | 康晓

出品|深网·小满工作室

曾经OpenAI最大的支持者,OpenAI联合创始人、特斯拉CEO埃隆·马斯克成为了OpenAI最大的反对者。

本周,马斯克在社交平台密集发表了自己对于OpenAI的不满、对AI伦理的看法以及对微软创始人比尔·盖茨的嘲讽。

“我早期与盖茨会面的时候,就发现他对AI的理解非常有限,现在依旧如此。”

3月29日,生命未来研究所(Future of Life Institute)发布了一封公开信,千名科技圈大佬联名呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,暂停时间至少为6个月。马斯克与人工智能领域专家、图灵奖获得者约书亚·本吉奥(Yoshua Benigno ), 杨立昆(Yann LeCun)的名字赫然在列。

这封联名公开信没有得到所有签名者的最终确认。杨立昆在公开信发布后迅速发twitter辟谣:没有,我没签名,我不同意这封信的假设。原因是“暂停研发等于秘密研发,这与签名者的诉求相悖。”言下之意,暂停只能使研发从明面上转为暗地里,不能解决大家担心的根本性问题。

不过,他并没有否认联名信中“AI可能会失控,给社会和人类带来巨大风险”的担忧。

网上冲浪达人马斯克在这封信发布后保持了沉默,不过从近期他的发言倾向来看,马斯克应为联名信观点的支持者。他在3月27日发布twitter,明确赞同“人工智能教父”杰弗里·辛顿(Geoffrey Hinton)以及纽约大学教授、AI专家盖瑞·马库斯(Gary Marcus)的观点:

“我们已有的AI技术可能会被渴望权力的政府和企业垄断,例如从非营利组织转为营利组织的OpenAI,你不会希望让一家大型营利性公司决定什么是真的、什么是对的。”

另外,未来AI若达到人类智商水平并掌握了财政、武器及关键基础设施,将有可能摧毁文明甚至毁灭人类。

杰弗里·辛顿认为,现在人们还有一些时间来避免灾难发生,因为目前公开可用的模型还“相当愚蠢”。杰弗里·辛顿称Chat GPT为“白痴学者”。

马斯克与OpenAI决裂最根本的原因便是OpenAI从非营利组织变为营利性组织,这场争端可谓是AI发展的现实与困境的最佳写照。

来源:Twitter用户Shibetoshi Nakamoto

理想的破灭

OpenAI的成立极具理想主义色彩。

2015年,一群不差钱的硅谷新贵们集资10亿美元成立了一家为了制衡谷歌,确保通用人工智能(AGI,全称Artificial general intelligence,即一种能够像人类一样在各个领域执行任务的智能系统)对人类有益的开源的、非营利性组织OpenAI(名字中的Open代表开源)。

创始人包括马斯克、时任Y Combinator合伙人的山姆·阿尔特曼(Sam Altman)(现OpenAI CEO)等人。早期马斯克与山姆同为OpenAI联席董事长。

马斯克是世界上最积极推动AI发展的企业家之一,与此同时他也无时不刻的表达着自己对于AI的恐惧。

早在2014年,马斯克就曾在推特上称,人工智能可能比核武器更危险,我们要对它格外小心。

在与《硅谷钢铁侠》一书作者阿什利·万斯交谈时,马斯克也突然讲话题跳至令他恐惧到睡不着觉的事上:他的好友、谷歌创始人拉里·佩奇(Larry Page)正在建造的人工智能机器人大军有可能摧毁全人类。“佩奇认为机器会永远服务于人类,我不像他那么乐观,他可能会不小心制造出邪恶的东西来。”

对于马斯克而言,对抗恐惧的最佳方法可能是抢在所有人之前研发AI,并对AI实施足以让自己放心的监管。

于是在2018年,当OpenAI因资金短缺导致研发进度远不及谷歌时,马斯克向联席董事长山姆提出了由他亲自接管和运营OpenAI的建议,但这一建议遭到了OpenAI创始人们的反对。不久后,马斯克离开OpenAI,并取消了原计划向OpenAI捐赠的一大笔投资。

马斯克离开的同时,山姆将自己的工作重心由Y Combinator转移至OpenAI。据税务文件,2018年山姆在OpenAI的职位由联席董事长变为总裁,相当于完全接手了OpenAI的管理权。

马斯克停止捐款使得OpenAI本就不富裕的现金流雪上加霜,无力支付训练模型所需的高昂费用。

2019年,OpenAI彻底与最初的目标背道而驰,创立营利性主体OpenAI LP,以筹集研发所需的费用。据The Information报道,山姆称自己不会拿新OpenAI营利性实体中股权,即他本人不会因为OpenAI的盈利而获益。

不到6个月后,微软向OpenAI注资10亿美元,双方一起建了一台超级计算机训练大模型——以谷歌Transformer模型为基础的GPT模型,并在迭代到GPT-3.5时创造了引爆世界的ChatGPT。

今年年初,OpenAI又接受了微软“数年内投资数十亿美元”的追加投资,虽然OpenAI设有“投资额100倍以内”的盈利上限,但这笔交易无疑将OpenAI与微软捆绑的更为紧密。

OpenAI的发展违背了山姆的初衷。

山姆此前在采访里曾强调,未来希望能够打破资本主义的范式,避免少数人垄断公司利益。“如果AGI真的可以完全实现,我可以想象它会以各种方式打破资本主义。我们试图设计的是一种不同于其他任何公司结构的结构。”

山姆表示,人工智能领域不能被任何一家公司单独所有。

如今的OpenAI确实有了制衡谷歌的能力,但在马斯克眼中Open AI又成为了需要被制衡的存在。

“现在它已经成为了一个闭源、以最大利润为目标、受微软控制的公司。”马斯克在ChatGPT发布一个月后断掉了OpenAI对Twitter的数据访问权限。

马斯克是开源支持者。2014年他开放了特斯拉所有专利,如今电动汽车常用的隐藏式门把手便是特斯拉的创新。3月31日,马斯克再次兑现开源承诺,Twitter部分代码开源,大部分为推荐算法。马斯克开源Twitter为的是让它成为“互联网上最透明的系统”。

近期马斯克在推特上不断表达着自己的不满,“我仍然很困惑,一个我捐赠了1亿美元的非营利组织是如何变成一个市值300亿美元的营利性组织的。”他甚至询问了ChatGPT“如何看待用非营利组织资源衍生创办营利性公司。”

ChatGPT的回答令他非常满意:打着非营利组织的幌子开办营利性企业,很不道德也不合法。任何滥用非营利组织特权的企图只会丧失公众信任,甚至导致法律后果。

ChatGPT给马斯克的回复

据The Information报道,马斯克近期一直在与人工智能研发人员接触,商议成立一个新的研究实验室,以制衡OpenAI和ChatGPT。

风险来的或比想象中更快

人们早就知道AI学习能力极强,能力呈指数级发展,但真实的AI发展速度仍然快的超乎预料。

上文提到的“人工智能之父”杰弗里·辛顿在近期的CBS采访中说,“以前我认为我们还需要20到50年才能拥有通用人工智能(AGI),现在我认为这个时间要缩短至20年内。”

处于一线的OpenAI治理团队工程师、前Deepmind AGI安全团队研究工程师Richard Ngo则给出了更为激进的预测。“当我说‘我预测’时,可信度超过50%,但不一定是远超50%。”

他预测到2025年底,也就是两年多后,神经网络将具备多项特性:

1. 拥有人类水平的态势感知,比如知道自己是神经网络,知道自己是如何与世界互动的等等;

2. 在撰写有效且复杂的计划时超过大多数人;

3. 比大多数同行评审做的更好(更专业、更公平);

4. 可以自主设计、编码和分发完整的应用程序(但不是最复杂的应用程序);

5. 在任何普通白领在10分钟内完成的任何计算机任务中表现的比大多数人都好;

6. 撰写能获奖的短篇小说,也可以出版5万字书籍;

7. 生成20分钟连贯的电影。

优秀的人类会在四个方面做的更好,虽然速度会比神经网络慢很多。如写小说;连续多日的稳定执行一个计划;在科学研究领域取得突破性进展,比如定理的创新;完成普通的体力劳动。

“长期来看,过渡到一个拥有超级智能的世界可能是人类历史上最重要,最有希望,最可怕的项目”。山姆在上个月也曾通过推特发布警告:世界离“可怕”的人工智能并不遥远,社会需要时间来适应,监管规则也是必不可少的。

山姆也在担心人工智能会带来虚假的信息传播,2024年的美国大选是如今OpenAI的重点关注事件。“大模型既然可以编写代码,那也可以用来发动网络攻击。”

微软对于AGI的发展速度显然比上述专家都更为乐观。

近期微软发表的154页GPT-4相关论文,直接将GPT-4称为“通用人工智能的早期版本”,因为在数学、语言、编程、法律、医学、心理学等领域,GPT-4在完成任务时表现已接近人类水平。

这份论文引起了学术界的争议。盖瑞·马库斯直接说GPT-4离AGI还非常遥远,甚至可以说无关,但GPT-4仍然会给人类社会带来风险与潜在的危害。“如果OpenAI缺乏透明度,且拒绝开源,不如直接关停。”

但现实是,碍于AI长期研究所需的高昂费用及种种其他原因,“没有一个顶级的研究室是完全透明的,基本没有到位的安全保障措施。”

山姆理解大多数充斥担忧情绪的人工智能领域专家,他此前也赞同人工智能不能被任何一家单独的公司所有,“如何分享AGI的利润?如何分享使用权?如何分配治理权限,这三个问题都需要重新思考。”

在山姆的设想中,AGI完全实现的那天,就是资本主义范式被打破的那天。但这个理想,已经在OpenAI的现实发展中渐行渐远。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1