当前位置:首页|资讯|ChatGPT|人工智能

王东岳:ChatGPT爆火,人工智能为什么“很危险”?

作者:混沌学园发布时间:2023-02-28

原标题:王东岳:ChatGPT爆火,人工智能为什么“很危险”?

今天关于人工智能机器人,究竟它的发展对人类是有利的还是不利的,形成强烈的争论,最著名的一个人叫库兹韦尔,他写过一本书叫《奇点临近》,我建议大家有空读一下。

库兹韦尔预测, 人类的人工智能技术经历三个阶,第一、 弱人工智能,我们今天就是弱人工智能状态。比如你的手机、你的汽车导航,这都是弱人工智能。他说随后进入 强人工智能所谓强人工智能就是机器的智能和人等一,和人拉齐,叫强人工智能。

你今天回过头来看,中国的无神论在某种程度上比西方的有神论其实要高明。比如我们人体,比如我们的眼睛,居然都不是神造的,居然都是自然界演化过来的。大家要知道这个说法是近代可以被确证的说法,它居然证明了中国古代无神论的那个思绪,复杂事物不需要人格神,它会在自然中演化而来。只要给它充分长的时间。

要知道人体、眼睛、复杂的器官系统、复杂的大脑,人类今天连搞清都搞不清,还不要说模拟它。它居然都是自然界慢慢演化过来的,你只要给它亿万年时间,这个东西今天人类居然可以应用。

今天人类做人工智能,提升人工智能最好的方法,就是借用这样一个机制,它在一个人工智能机里输入一套程序,叫随机变异淘汰选择程序。就是让这个机器对自己的程序不断地出差错,相当于自然界上生物基因的随机突变。然后设定一个选择淘汰程序,对所有的突变进行淘汰,然后做定向选择,以极快的人工选择方式让人工智能快速提升,这是今天人工智能AI发展的最重要的前沿技术,它居然运用的就是无神论的自然进化模型。

再下一步叫 超人工智能,就是机器的智能远远超过人,库兹威尔说人类技术的生长是指数增长,对数学熟悉的人你知道,在坐标系上指数增长是怎样的一个曲线。因此他预测,他说人类从弱人工智能达到强人工智能,将在2045年达到,最多2065年达到,请大家注意离我们现在只剩几十年,他说按照指数增长强人工智能一旦达成,也就是机器一旦达成跟人的智能效率一样高的时候,它将只需要三个半小时就进入超人工智能,速度如此之高。这个指数增长就跟你叠一个纸,你越叠越厚,越叠越厚一样,等你最后这一叠顶到天上了,所以它越往后面发展速度越高。

很多人认为人类将来前途无量,人类的智能不断提高,人类通过人工智能制造出更高智的机器,从而它统治宇宙,根本不存在这个可能性。因为它一定是质量递减,时间递短直至于方生方死,碰到那条右端失存临界线。

可能有人会说,那基因编辑人现在已经有人在做了,或者我们人工智能造出的机器人,它的代偿度比人类还高,可你一定要记住,它代偿度增高,它一定标志着存在度降低。

什么意思?一个新的编辑技术出现,立即就把这一茬子覆盖掉了,它跟摩尔定律一样,越高级的存在时度越短。机器人也同样,就算你有一天造出比人智高的多的机器人,它的能力的提高,标志着它存在度极低。它会在我们工业系统上表现为一个什么状态,越高端的产品功能寿命周期越短,是不是这样?所以摩尔定律指的就是这个意思。当它翻新速度大到它刚一产生它就被置换。

比如机器人刚出现,另一个更高的人工智能制造出智能更高的机器人,立即把它淘汰掉,它会出现什么局面?我用庄子的一个词叫“方生方死”,也就是它有一天会到这样的状态,它先进和智能代偿,高到这样的状态,它被迭代的速度之快到这样的状态,它刚一被制造出来立即被否定,这叫“方生方死”。而且它的质量一定是极低的,新智能制造的机器人刚生产了几台,新技术出来了,它得被淘汰。因此它的质量一定是递减的,它的时段一定是递缩的,最终达到方生方死,也就是它刚一产生它立即被否决,它立即死灭,这就是那条右端失存临界线。

那么超人工智能是一个什么状态?机器人自己缔造更高智能的机器人,将会把人类跟机器的智能差距拉开十几个乃至几十个台阶。

我简单说一下智慧台阶。鸡比蚂蚁高一个台阶,猪和狗比鸡高一个台阶,猴子比猪狗高一个台阶,人比猴子高一个台阶。它居然在几个小时把它的智能拉开比人高几十个台阶,它看你连猪狗都不如,也就是它在想什么你都不知道,这叫超人工智能,它居然是强人工智能在2045年到2065年之间达成后三个半小时将达成的效果。

那么关于强人工智能对人类是一个什么威胁?

西方学界分成两派,65%的学者(包括库兹韦尔乐观派)认为人类从此进入永生和控制整个宇宙的时代,非常乐观 ,他说这是一个新的起跳的奇点。

35%(包括比尔盖茨、马斯克、霍金)是悲观派。可是大家要知道,不管是乐观派还是悲观派,他们都是冒猜,他们都没有任何根据,他凭什么乐观,他凭什么悲观?那么我们怎样评价它将是悲观还是乐观,我们必须有一个基础理论作为终极尺度。

当递弱代偿原理这把尺子打造出来的时候,我可以断定它是悲观结局,也就是机器人一定对人类的存在构成巨大威胁。有人写文章非常生动,讲这种威胁可能怎样实现。我引用他的故事,他说即使你给机器人下的是善意的指令,它也照样消灭你。这就好比你对头发并没有恶意,可你剃头把头发消灭了。比如你给机器人下了一个指令,只是让它画画,最高效率的画画,它很快就会把地球上的纸张用完,它怎么办?它立即大规模借用地球上一切有机资源,包括人体造纸,它把你全做成纸了,它没有恶意,它是完成你的一个善意指令,可你玩完了。

有人很幼稚地说,机器人是我们自己制造的,我们把它插销拔掉,它不是就没电了吗?请你搞清楚机器人可能在三秒钟就建一个新能源,它要拔你的电而不是你拔它的电。

有人说机器人是我们的造物,怎么会损害我们?请想想你是哪来的造物,你是灵长目的造物,结果你把猴子现在快消灭光了,你何曾对你的祖先尊重过,大家想想这个危机。

如果库兹韦尔预测得准,我们将在几十年以后面对一个我们根本无法处理的天敌。

《东岳先生学习坊全集课程》

144讲, 提升你的思维认知

👇👇戳下方链接, 一键下单!


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1