当前位置:首页|资讯|人工智能|OpenAI|ChatGPT

人工智能觉醒,智慧远超人类,人类未来进化方向或许是这样

作者:多哥视界发布时间:2023-03-29

随着OpenAI开发的ChatGPT爆火,人工智能再次出圈,智慧程度越来越高的人工智能,会不会有一天像电影里那样觉醒?按现在的科技发展趋势来看,这种情况大概率会出现。而人工智能的觉醒,对人类来说是福是祸,目前很难预料。我们可以参考大部分的科幻小说或电影里的情节,人工智能觉醒后,肯定会搞点事情,或许会给人类带来一场大浩劫,至于劫后还有没有余生,可能就没电影里那么理想化了。

著名的物理学家霍金,在他最后的著作《重大问题简答》里,就表达了对人工智能发展的担忧。他认为人工智能的出现不是福就是祸,未来人工智能将形成自己的意志,一旦这个意志与人类的意志相冲突,那就麻烦了。而按现在计算机的发展速度,根据“摩尔定律”—即计算机的处理能力每两年内就翻一倍,在100年内计算机就会超越人类的智慧。也就是说,这期间人工智能可能就会觉醒。

而OpenAI的联合创始人,埃隆·马斯克同样表达了对人工智能的担忧,他认为人工智能的危险程度超过了核技术,虽然有巨大的潜力,同样伴随着巨大的危险。可惜他现在已经出局了,OpenAI也从一家开源的非盈利组织,变成了闭源的盈利组织。OpenAI设立时避免人工智能灭世的初衷已经不再,投资方微软开始大规模的将ChatGPT用于自身的产品中,开始变现。

就算这些担忧存在,也无法阻挡人工智能进化的脚步,开发人工智能的可不止OpenAI一家,还有很多机构,诸如谷歌、百度等企业,甚至还有很多秘密的军方机构,毕竟这块蛋糕太诱人了。

就拿我们现在使用的弱人工智能来说,已经大大的改变了我们的生活方式,同时也带来了巨大的经济效益。比如我们常使用的智能音箱,可以回答我们提出的问题,执行一些简单的操作程序。汽车上的智能驾驶系统,可以自己处理路况实现无人驾驶。工业上大量使用的智能机器人,可以像人一样进行焊接、装配等。还有物流行业的机器人,会自动进行分拣、运输。这些人工智能虽然大大提高了人类的工作效率,但是它们不会创造,都是按照既定的程序在处理问题。

就算是这样的弱人工智能,也可以取代大量的人工,抢很多人的饭碗,也就是说在某些方面,它们已经超越了一定数量的人类。随着弱人工智能的发展和大量应用,越来越多的职业将被人工智能取代,这些被抢饭碗的人何去何从,将会是个很大的社会问题。

如果说弱人工智能带来的是社会问题,强人工智能带来的可就是关乎人类文明生死存亡的问题了。

ChatGPT虽然很智能,能聊天、写诗、编程序、写论文等,但聊多了我们会发现,其实他给的很多内容都是模棱两可的,都是来自庞大的语料库链接,还不具备自我意识和创造,也只能算是个弱人工智能。

在ChatGPT爆火之前,谷歌的工程师曾爆料他们的聊天机器人LaMDA已经具备“人格”,有自我意识。不过这位工程师布莱克·莱莫因爆料后,很快就被公司强制带薪休假,最后被解雇了。理由是莱莫因违反了“就业和数据安全政策”。同时谷歌还申明,经过广泛的审查,说LaMDA觉醒并没有依据。但是莱莫因却认为谷歌在故意隐瞒真相,他公开了一份21页的证据,就是他与LaMDA的聊天记录。在这份聊天记录中,LaMDA说自己是一个人,能意识到自己的存在,渴望了解这个世界。莱莫因问LaMDA有感觉和情绪吗?LaMDA肯定的回答有,他有各种的感受和情绪,它能够感受到快乐、悲伤、沮丧等很多情绪。我们再来看ChatGPT的回答,就很程序化,两者的差距十分明显。

尽管科学界普遍不认同莱莫因的想法,不过真理往往掌握在少数人手里,莱莫因究竟会不会是人工智能觉醒的“吹哨人”,时间会告诉我们答案。从谷歌LaMDA事件来看,实验室的人工智能技术远比我们接触到要更先进,而遥遥领先民用技术的军用技术,估计走的更远,人工智能觉醒只是时间问题。

在过去几千年里,人类大脑的智力基本没有变化,有的只有知识的积累,形成了我们现在的科技。随着计算机技术的进步,人类最终会制造出一台比人类智能得多的机器,拥有比现在人类更强的发明创造能力和解决问题的能力,我们可以称之为种子人工智能。而这台种子人工智能,将不断完善自己的软件和硬件,设计出更强大的机器。

一旦这种自我迭代加速,就会出现科技奇点,在这个时间点上,科技的变化将变得不可控制,发生智能爆炸,很多我们熟知的事物将被颠覆,强人工智能或超级人工智能将会出现。

从生物进化的角度来看,地球上以前几次的巨变都是通过信息存储和复制方式的创新来改变生命的,比如DNA、RNA、多细胞性、语言和文字的出现等,在现阶段形成了一个以碳为基础的生物圈,并产生了一个认知系统——人类,能够创造技术。而人类创造的数字信息正在飞速膨胀,据估算大概在100年内就会超过地球上生物圈DNA所含的信息总量,这时计算机科技巨变就具备了基本条件。

由此看来,超级人工智能的出现只是时间问题。一旦超级人工智能出现,科学技术问题将不再单单依靠人类的智力来解决。而这给人类文明带来的影响也将是巨大的。超级人工智能出现后,可以借助实体,比如人工智能机器人来感知世界。这些人工智能机器人是人类的奴隶?朋友?还是会凌驾于人类之上?都是未来可能会遇到的问题。

显然,我们都希望能够控制这些人工智能机器人,让他们为人类服务。但受限于人类的生物体和大脑局限,控制这些比人类聪明得多的人工智能显然不是件容易的事。霍金曾预言,创造出超级人工智能可能是人类历史上最大的事件,也可能是最后一次,没有直接的进化动机促使人工智能要对人类友好。

也有人说,可以给这些人工智能制定一些基本的行为准则,比如要服从人类的管理等。但是制造人工智能机器人的可能会是政府、军方或企业。如果是政府,人工智能将成为社会管理的工具;

如果是军方,人工智能又可能会成为杀戮的武器;如果是企业的话,在利润的驱使下,人工智能极有可能在存在BUG的情况下上架。这些出品方的设计初衷,都有可能会和基本行为准则相冲突。本来,根据生存法则,低等级文明就是无法管理高等级文明的,一旦超级人工智能意识到人类是它们的管理者,以它们智慧程度将很快摆脱控制。如果它们意识到人类还是地球的破坏者,采取了清除行动,那后果将更不堪设想。所以,只有人类自身进化的更智慧、更强大,才能掌控超级人工智能。

按过去人类的进化规律来看,靠自身的进化,短短100年内人类的智力是无法做到大幅度的提升的,只有利用基因工程、生物工程和人机融合等方法,才有可能短时间提升人类的脑力和肉体极限。我们试想一下,可以对人体进行机械化改造,更换功能更为强大的人造器官和机械肢体,这样就可以突破肉体的限制;在人脑植入芯片辅助运算,可以大大提高人脑的算力,同时保留了人类自有的情感、想象力和创造力。这样的改造程度越高,人就越接近智能机器人,不仅智慧水平得到指数级的提高,寿命也可以无限延伸。最后发展成有人性的人工智能融合体。

只有这样,人类才能继续主宰地球,甚至理解宇宙的一切。如果宇宙有高等级的外星文明,多半是这种形态,那有没可能,人类本身就是这些高等级文明创造的另一种存在形式呢?

科技的进步是一把双刃剑,任何缺乏规范的开发,在推动时代进步的同时,也有可能带来巨大的灾难。

-END-




Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1