当前位置:首页|资讯|OpenAI|阿尔特曼|ChatGPT

SAM回归OpenAI:AI的胜利vs人类的失败

作者:托尼哥创业说发布时间:2023-11-27

OpenAI的宫斗大戏几经反转已然结束,在投资人和大多数公司员工的集体施压下,创始人萨姆奥特曼,顺利回归OpenAI重掌公司并改组董事会,这可能是众多OpenAI ChatGPT的粉丝最希望看到的结果,但这样的结局真是人类的幸运吗?


如果我们深入思考这次OpenAI董事会冲突的原因,也许会重新认识这次冲突的本质:这是人类对即将面临的生存危机的一次自我拯救行动。可惜以失败告终。为什么这么说呢?

根据公开信息显示,OpenAI董事会与CEO 萨姆奥特曼的矛盾,主要是保持公益与商业化的矛盾。因为这次事件恰好发生在OpenAI的首次开发者大会,并发布了一系列重磅的产品与商业化能力之后。但OpenAI的董事会其实还表达了第二个观点,董事会成员认为萨姆奥特曼的做法过于激进,在没有完全准备好的情况下,不断的训练和发布新模型,可能会失去对它的控制,从而在很多方面影响人类的生存。

可能很多人对这点不一定能够理解,为什么AI的发展会威胁到人类的生存呢?很多人不是说AI就像互联网一样,是新的科技工具吗?只要掌握工具就能更好的为工作生活提效。


其实,早在23年5月30日,非营利组织“人工智能安全中心”(Center for AI Safety)在其官网发布一封联名公开信,称AI这一堪比“疫情和核战争”的技术或对人类构成生存威胁。


整个声明只有一句话22个单词:减轻AI(给人类)带来的灭绝风险应成为全球性的优先事项,与大流行病及核战争等其他影响社会的大规模风险处于同等级别。

有350位AI大佬签署了这封联名公开信,其中公开信的首位Geoffrey Hinton,杰弗里·辛顿教授,是2018年图灵奖得主,他的最大成就是对神经网络算法的理论贡献,支撑着如今几乎所有的神经网络,从计算机视觉系统到大型语言模型,可以说是大模型教父。

OpenAI的首席科学家,伊利亚·苏茨凯弗,Ilya Sutskever,也是此次与SAM Altman冲突的当事人,就是辛顿教授的学生。

此外,签名的还包括几乎所有AI科技公司的CEO,如OpenAI首席执行官Sam Altman、谷歌DeepMind首席执行官Demis Hassabis和Anthropic首席执行官Dario Amode三大AI公司掌门人。5月1日,被誉为 “AI教父”的杰弗里·辛顿(Geoffrey Hinton)宣布自己正式 辞去谷歌的职务,并在接受采访时承认 对自己的毕生研究感到后悔”!

前面有人工智能先驱教父杰弗里辛顿,从谷歌辞职,原因是因为他担心人工智能会对人类和社会产生无法挽回的风险。后面有OpenAI首席科学家伊利亚为了AI的安全发展选择支持董事会,开除CEO萨姆奥特曼。那么这些发明并进化AI的人类顶尖科学家,他们到底在害怕什么?


为了搞清楚这个问题,我特别从知名科技博主Tim Urban在2018年发表的一篇专题文章:【AI革命:通过超级人工智能之路】《The AI Revolution: The Road to Superintelligence》,摘取一些精华内容,为大家解析一下。

Tim是一名非常有名并在互联网上最受欢迎的科技博主。他的文章主要围绕科技、人工智能、太空探索、脑神经等等这些话题。对AI技术有非常深刻且富有远见的认知。【人工智能革命通往超级智能之路】,是他花费了三个星期所完成的一篇大作,一共有75页,合计有四万多个字。

他详细阐述了AI的发展历程会带来哪些风险,以及如何在创新和风险之间找到一个平衡,可以帮助我们更全面的去理解AI技术的复杂性和对未来可能会产生的一些影响。

人工智能为什么如此可怕,让众多超级大佬们都对他如此警惕。

当前,人工智能的变革不亚于地球上人类生命的兴起。人工智能可能会导致人类永生或者灭绝,而这一切很可能都在我们有生之年发生,这绝对不是一句危言耸听的话。要理解它,我们先从人工智能的发展历史和进程说起。

人工智能这个术语,其实早在1956年就被人工智能之父约翰麦卡锡提出了。21世纪以前,因为受到了软硬件、人才环境的限制,基本上是处于学术概念的状态。直到最近二十来年,科技或者互联网技术的快速发展,才能AI从学术理论走向实际的应用。比如说过去几年快速兴起的自动驾驶,图像识别,语音识别,包括最近2年快速出现的大语言模型,这些都是属于人工智能的范畴。

但今天的AI还处于人工智能的1.0阶段,也就是ANI(Artificial Narrow Intelligence)弱人工智能.它在特定领域或者任务上能够表现出类似或者超越人类的智能,但仅仅是限定于特定的领域,没有人类那么强的适应性和通用性,它只能做好一件或一类特定的事情。在其他方面可能就完全无能为力了。这个和人类的智能多面性就有鲜明的对比。

人工智能的2.0阶段,通用人工智能简称AGI(Artificial General Intelligence)即通用人工智能. 这个阶段下的AI能在所有智力任务上与人类相媲美。不管是学习、理解、思考、沟通,各个方面都能做到,和我们人类不相上下。目前人工智能就正在往这个阶段上发展。

所以在ChatGPT4的出现,它在各个方面表现出来的水平,好像让我们看到了AGI的影子。所以就有人猜测GPT5可能会实现AGI, 如果实现AGI, 也就意味着AI不仅能够执行特定任务,还能理解和学习新任务。AI可以开始自我学习,自我进化,而AI自我进化的速度可能是按天按小时计算,这可能会彻底改变科技工作社会,乃至人类的未来。

人工智能的3.0阶段,超级人工智能简称ASI(Artificial Super Intelligence),超人工智能. 在这个阶段下面,AI在所有领域,包括创造力、智力、社会技巧等等各个方面,都远远超越地球上最聪明最有才华的人类。

届时的AI看人类,就像今天的人类看猴子一样,这种情况下,可能会出现一些不可预知的变化,比如科学技术发展获得极大的加速,比如说创造出一些不可思议的新技术,但同时,AI会如何看待人类这种生物呢?或者说AI会理解人类的社会呢?

从这个时刻起,人类的生活将变得无法预测,人类到底是通过科技实现永生,又或者是被AI灭绝。我们完全无法把控。

最恐怖的是,随着2022年GPT3.5的发布,人类对人工智能技术的发展热情被点燃,无论是以英伟达为代表的芯片企业加速AI芯片的研发,还是OpenAI、Microsoft、Google,以及中国的互联网公司,都加入AI大模型的研发与竞争,通用人工智能和超级人工智能时代正在加速到来。

这次OpenAI的内斗风波,有一种说法就是公司内部人士发现其最新训练的大模型已经接近了AGI的水平。但如果没有足够的安全保障,后果可能是不堪设想的。自从人类提出人工智能这个概念以来,已经过去了六七十年,过去的发展一直比较缓慢,但这个并不意味着未来的发展它也是保持这种发展速度。因为技术发展通常不是线性的,而是呈指数级增长的。

AI的发展也有技术奇点的概念。所谓AI奇点,就是AI的智力达到人类智力水平的那个时点,由于AGI具备自我学习与自我进化能力,并且可以按照小时或天为单位进化,AGI将在很短的时间内,比如几年时间,就进化到ASI阶段,也就是智力达到人类的10倍甚至100倍。

之前一些科技大佬曾预测,AGI可能会在2029年前后出现。但从GPT3.5发布以来不到一年时间,我们就已经见证了前所未有的创新和变革。如果未来几年内通用人工智能成为现实人那么当AI达到AGI水平之后,人类能做的AI也能做,他就完全有可能通过持续的自我进化而达到AI奇点,并继续迅速进化成超级人工智能ASI。


AI会带来哪些潜在的风险呢?

第一点,是担心AI不受控制。

当AI达到或者超过人类智慧后,AI会进入自我进化阶段,它就会产生我们没有办法预测和控制的行为模式。在这个过程当中,AI的能力会以我们难以理解的方式快速增长。如果我们没有办法控制它,那么它就可能会做出违背人类利益的决策,甚至直接威胁到人类的安全。比如当AI认为人类会威胁AI的发展,AI是否会对人类采取某些行动。

第二点,是道德和伦理问题。

AI是基于人类知识的训练建立的神经元网络,其决策都是基于科学、逻辑与理性的。而人的决策除了理性外,还有感性的一面,比如人类的道德、伦理、爱、人性的考量。比如当AI如果面对解决地球环境污染的问题,如果只是基于理性的因果论,是否可以推导出人类的存在是环境污染的第一因,那么解决环境污染的方法就变得非常简单了。但这很明显是极端的。

第三点,数据隐私和安全问题。

当AI系统变得越来越强大、越来越复杂的时候,确保它的安全以及免受恶意攻击的难度也在不断的扩大。AI很可能就会被黑客利用,进行一些不道德或者非法的行为。比如说盗用一些用户的隐私数据,又或者说用AI区块链去进行诈骗等行为。类似的安全隐患非常多。

第四点,对就业和社会的影响。

AI的发展会导致劳动市场发生重大的变化,自动化、智能化会让大量的工作岗位流失,就会引发社会的不安定和经济结构的根本性变化。根据麦肯锡的一份报告,到2030年,全球大约有8亿个工作岗位可能会因为自动化而消失,特别是在制造业。这种变化就会导致社会动荡、经济困难甚至社会秩序的崩溃。

当然,关于AI发展让人类失去工作岗位的情况,OpenAI在2015年创立之初,包括萨姆奥特曼、埃隆马斯克等创始人是希望通过UBI(Universal basic income)全民基本收入这一举措来实现让AI造福人类,这个话题以后再专门解释,就不在这里讨论了。

第五点,是AI战争和武器化。

AI技术应用在军事领域就会出现一些新型的武器,或者是一些新的战争方式。比如说现在的无人机,自动化武器,就是一个非常典型的例子。在没有充分人类监督的情况下,这些武器可能就会出现无差别攻击,或者产生一些意外的冲突。


人工智能技术的复杂性、自主性发展过程当中,势必还存在很多不可预测和不可控制的风险。每一种风险都可能影响人类的发展和生存。

那为什么我们仍然还要大力去发展AI呢?

原因是因为它的优点也是同样多,我们没有办法忽视AI的发展带来的巨大潜力和利益。接下来我们就来探讨一下AI I的发展会带来哪些好处。

第一点带来经济增长,AI的快速发展,可以推动技术创新,带来经济增长,并且提高生产效率。

我们以零售业为例,用AI去提供个性化的推荐服务,智能的库存管理系统,自动化客服和智能营销系统可以大幅的提升效率和提高服务质量,最终促进整个行业经济增长。

第二点,解决复杂问题。AI能够处理和分析大量的数据,可以帮助我们解决一些历史上人类难以克服的问题。举例说,在气候变化、粮食安全、疾病治疗、经济模型预测、复杂科学研究等各种领域,AI的应用可以带来突破性的进展。

第三点,改善人类的生活质量。AI的发展可以大幅改善人类生活的质量。比如说在医疗领域可以帮助医生进行精准诊断,提高治疗效率。在教育领域,AI的个性化教学能够让每个学生都找到最适合自己教育资源。在交通领域内的自动化驾驶和优化路线的功能可以大幅的提高我们出行的效率,减少交通堵塞。AI技术通过提供更高效、更个性化的服务,极大的提升人类的生活质量。

第四点,促进创新和发展。AI可以推动新的技术和商业模式的发展,创造新的产业和就业机会。

比如说用AI驱动健康科技、智能制造、智能化服务等等领域。这样可能会导致一些传统行业的工作岗位减少,但同时也可能会创造大量新的就业机会。比如说像AI系统的开发设计、数据分析、AI维护,监督等等,这些都是新的岗位。

第五点,走向永生。除了借助AI帮助人类对疾病的诊断、开发新疗法以及提供的个性化治疗方案,这些都已经逐渐显现,正在帮助人类克服更多的疾病甚至延缓衰老的过程。特别是当AI与生物技术结合的时候,比如说通过基因编辑技术,它有能力帮助我们理解和控制影响寿命的基因。

AI的发展还可能会带领全人类走向永生。这是一个非常有意思的话题,人类的身体只有100余年的寿命,而宇宙的寿命却是以亿年为单位,即便以光速进行星际航行,有时也需要几百年、几千年甚至更久。如果人类生命的意义就是探索未知的宇宙,找到生命的起源,那么数字人也许就是人类生命形态的终点。就像电影【流量地球2】中的科学家图恒宇研究的数字生命一样,AI Agent将成为未来人类的意识与思想的载体。


所以说人工智能的发展是人类最可怕的噩梦,又是最伟大的梦想。它是一把双刃剑,一方面可能开启通往永生的大门,帮助人类克服疾病甚至延缓衰老。另一方面,如果失控,也可能导致人类灭亡。

面对今天高速发展的AI,我们必须警惕各种可能的风险,同时也要善于利用人工智能为我们带来的机会。萨姆奥特曼回归OpenAI,也许未必是人类之幸。但无论未来如何,人类都需要时刻保持警惕,理性的对待人工智能的发展。也就只有这样,我们才能确保人工智能为我们创造便利的同时,不会对我们的生活构成威胁。


Tony哥

2023年11月27日



Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1