当前位置:首页|资讯|人工智能

从人的本质到智能的本质,以及 AI 与未来社会

作者:喵喵喵传奇影业发布时间:2023-12-03

(堪比人类的强人工智能的面世很可能就在未来几十年内。写作本文的初衷是为处理人与强人工智能的关系提供一个理论框架。本文最基本的核心观点形成于2015年,当时以 《Brain Unchained》 为题发表过。在2019年,又以《解放之脑:智能,AI与未来社会 》为题改写。结合近年来人工智能的快速发展,现在重新论证并加以阐发。)


人的本质是什么,换言之——“我是谁?” 这个问题,长期以来主要在哲学范围内被讨论。在我看来,哲学的重要使命是对未知领域的开拓和瞭望,对最模糊也最重要的问题大胆猜想和讨论。曾几何时,毕达哥拉斯和弟子们认为数字是宇宙的本原并且发现了勾股定理;其他的哲学家同样热衷于探究世界的本质,德谟克利特等人提出了原子论。时至今日,数学和物理化学等诸多最初在哲学范畴讨论的内容都已经自成学科,但人的本质这一重要问题的答案却还远远不够充分。人是复杂的,这种复杂性来自两方面:一来人是类似其他高等动物的复杂多细胞有机体,二来人尚且具备其他高等动物所没有的高度发达的智能。因此人的本质其实包含两个问题:什么是生命的本质,以及智能的本质。


生命的本质


自1859年达尔文提出著名的《物种起源》以来,经过近两百年来的深入研究和诸多证据的发现,生物进化这一事实已经被一再证实,即如今地球上的纷繁复杂的诸多物种,都是由简单原始的微生物发展进化而来的。这一过程是通过漫长的时光中一代代的繁衍生息和自然选择实现的,在距今约五亿年的寒武纪之前,地球上的生命以海中的单细胞微生物为主。在著名的寒武纪大爆发中,大量复杂的多细胞生物出现了,包括三叶虫,腕足动物和鱼形动物。能够形成木质素的高大陆生植物出现在约三亿年前的石炭纪,而人类的祖先可能出现在约六百万年前。


繁衍是所有物种的共同特征,是产生一个相似但不同的个体,是一种有差别的复制。这一过程的关键是遗传物质(DNA 及 RNA),这在多细胞生物的繁衍中体现的尤为明显:不管是动物还是植物,总是产生一个携带遗传物质的细胞(通常是受精卵),再由这一个细胞发育成为完整的个体。从信息的角度看,这是一个复制-加入随机变化-解码的过程。受精卵中的遗传物质来自亲体,同时又有所变化(基因重组和突变)。在发育过程中,遗传物质中携带的信息不断被解码,其中的变化又导致子体产生外在性状的变化。这整个过程中的关键是遗传物质,绝大部分生物都以DNA为遗传物质,只有少数病毒利用了RNA,而DNA和RNA也拥有非常相似的结构。它们都是核苷酸聚合而成的长链,每个核苷酸以碱基的不同作为区分(DNA中的碱基有腺嘌呤(A)、鸟嘌呤(G)、胞嘧啶(C)和胸腺嘧啶(T),而RNA中的碱基有腺嘌呤(A)、鸟嘌呤(G)、胞嘧啶(C)和尿嘧啶(U)),这样就像包含四个字母的很长的密码本。


从遗传物质的角度看,一代代的进化就是这个密码本不断变化的过程,就生命总体而言,密码本在持续变长和变多。基于繁衍的进化,就是这样一种不断小步迭代的模式,向随机方向探索各种可能性,其中更能适应环境的得以保留。这一模式看似简单粗糙,其实非常强大,生命整体变得越来越繁荣昌盛。


进化带来了一切。生命本质上是一种进化现象,是群体通过不断复制个体进行迭代的过程,这一过程又离不开从幼体到成体的发育以及遗传物质的复制与变异。理查德·道金斯博士在其名作《自私的基因》的“Memes:新的复制因子”一章中也提到类似的观点:“但在一切形式的生命中——不管这些生命出现在哪里,也不管这些生命的化学基础是什么——有没有任何物质是共同一致的?……我会将赌注押在这样一条基本原则上,即一切生命都通过复制实体的差别性生存而进化的定律。”


智能的本质


智能是一个复杂的问题。首先可以肯定的是,目前为止人类拥有最高等级的智能,这主要体现在我们对于外在世界的认知能力和改造能力。虽然近年来人工智能的发展如火如荼,但总体而言与人类的认知能力还是存在差距,并且缺乏独立的自主意识。举例而言,我们可以在这里探讨AI 以及其他动物的智能,但还没有任何其他AI或者动物会主动的探讨分析人类的智能。


人类大脑具体是如何构成的,意识和智能又怎样从中产生?这些问题的答案还远远不够清楚。我们已经知道的是,神经元细胞是构成智能活动的基本单元,对于单个神经元细胞我们已经非常了解,它总是从轴突一侧接收信号,加以衡量,再从树突传出信号。人脑拥有超过八百亿个神经元,简单的神经元活动怎样在如此大的规模上运行并产生智能,这点我们了解的还远不够清晰。破解人脑的秘密有两个路径,一是构建类似的模拟神经元结构,也就是如今飞速发展的基于神经网络的人工智能,如chatgpt等;二是更加精细的测定人脑的神经元连接结构,特别是利用非侵入性技术对活体大脑观测,从而准确的模拟人脑。研究人员对此已经付出了数十年的努力,但距离其目标——创建与人类同等级的智能,还存在诸多困难。


好在人类智能也并非凭空诞生,而是在漫长的自然进化中发展而来的。从水母到昆虫,从蜥蜴到山雀,它们都拥有同样由神经元细胞构成的神经系统,但复杂程度各不相同,其智能表现也各有高下。考察比较这些产生于不同年代的生物的智能可以给我们启示。


水母是一种非常古老的生物,它们出现在大约七亿年前,拥有一个网状的神经结构,由约8000个神经元组成。相较于后来出现的动物,这一神经系统可说是非常简单,但仍然很好的帮助它们完成生命活动,例如发现敌人并且向它们发射刺针。 这意味着水母的神经系统会通过感受器接收外界信号,加以判断,再生成反馈,这也是所有智能系统的基本功能。从本质上讲,比水母复杂的多的智能系统在做相似的事情:接收信息,处理信息,反馈信息。


昆虫出现在约3400万年以前。典型的昆虫如蚂蚁和蜜蜂,拥有约十万个神经元细胞构成的神经系统,它们也表现出远远比水母复杂的行为,例如协作捕食,采蜜,筑巢等等。一些寄生性的蜂类在捕猎时表现出的凶猛精准,更加令人咋舌。但要着重指出的是,昆虫的这些令人惊叹的智能行为,绝大多数都不是后天习得的。例如,蝉的幼虫通常会在地下生活数年之久,然后钻出地表爬上树干并蜕壳。它们无需向父母或老师学习飞翔的技巧,只待翅膀变硬,就能在天空中自如的飞行。因此可以认为,它们的智能是发育期间形成的,这时神经细胞分裂并互相连接形成神经系统,当数以万计的神经元连接结构完成后,智能也就蕴含其中了,这一过程本质上是由基因决定的。


因此昆虫智能的进化路径可以如此概括:基因变异 > 发育过程中形成的神经结构改变 > 行为改变,个体的不同行为特征在自然竞争中转化为不同的生存优势,让更适应环境的基因型得以生存和发展,这也就是自然选择。这让人联想到带有芯片的电器如洗衣机,程序员将程序录入洗衣机的芯片中,赋予它各种控制功能,就像基因指挥昆虫神经元的发育和连接以获得智能。这种智能运行在固定模式下,难以做出灵活的改变。


著名的法国昆虫学家法布尔在他的长篇巨著《昆虫记》中记述了许多精妙的观察。有一种胡蜂擅长修筑圆柱形的蜂巢,它们会用小粒的材料建造一个圆底,再从边缘慢慢加高形成杯状,然后四处搜集花粉囤积其中,最后产卵并封好顶部。这样一来,它们的后代就可以在这个庇护所中安然成长了。


法布尔决定用一些实验来测试它们的行为。当一只胡蜂正在建造蜂巢的圆底时,他用针尖在上面刺了一个小洞。胡蜂随即察觉到了这个缺损,并用建筑材料把这个洞修补好了。等它完成圆底,开始修建那一圈墙壁时,法布尔再次用针尖刺破了蜂巢的圆底。令人惊讶的是,胡蜂这次对那处损害视若无睹,它继续忙忙碌碌的垒好墙壁,采集花粉,封好屋顶,完全没有意识到这一切都是徒劳的:它辛苦采集来的存粮都通过粮仓底部的破洞流光了,它的后代注定要饥饿而死。胡蜂显然并不理解它们行为的根本目标,反而像是逻辑死板的程序一样,只能遵循一些固定的模式来行动。它们种种看似不可思议的筑巢等行为其实都是基因在长达数百万年时间里通过自然选择逐渐形成的。在这一漫长的时间里,很少会有像法布尔这样的人在它们的筑巢过程中,在特定的阶段加以破坏,因此基因编写在神经系统中的“程序”也没有设置应对这种情况的行为模式。


比较而言,学习能力是一种更加高级的智能活动,广泛存在于更加高等的动物如鸟类和哺乳动物之中,它们拥有远比昆虫发达的大脑,其神经元数量往往数以亿计,人类大脑中神经元的数量高达860亿。与昆虫形成鲜明对比的是,高等动物通常会在幼年时期花费很多时间学习。大象鼻子上有超过40,000块肌肉,小象出生后需要花费数年时间才能灵活地使用鼻子。黑猩猩甚至能教会同伴使用简单工具,例如将一根树枝插入白蚁的巢穴,将它们钓出来作为食物。  


下面这个例子更加具有启发意义。在1921年的英国,人们惊讶地发现了长翅膀的牛奶小偷,专门袭击送奶工放在室外的瓶装牛奶。罪犯是蓝山雀,一种在城市常见的雀鸟。它们从空中跟随送奶工的车辆,一旦牛奶瓶被取出并放在订户的院内,它们就从天而降,打开奶瓶盖子并吃掉牛奶顶上最美味的一层。人们尝试了各种不同样式的瓶盖来对抗它们,但基本都失败了。更有趣的是,越来越多的鸟儿通过观察窃贼的行为学会了这个时髦的技能,这种流行时尚最终传遍了整个欧洲大陆。


与法布尔笔下的胡蜂相比,山雀无疑更加理解它们的目标所在,并且更能克服新出现的种种困难。这种行为模式的进化途径可以概括为:个体的偶然发现 > 其他个体通过观察学习 > 新技能在整个群体中扩散,与昆虫智能的进化途径相比,在这个新范式中,基因缺席了。智能通过观察和学习完成复制,而无须繁殖以产生新的个体。正如上一章节所述,进化可以概括为突变和复制。某个山雀的灵光一现相当于突变,其他山雀的观察学习相当于复制,这意味着,一种新进化范式的雏形出现了。


另一个有趣的例子可以作为佐证。日本的研究人员曾经在海岛上对野生猕猴的行为进行了长期研究。在1953年,他们将一些土豆放在沙滩上作为给猴子的食物,这些土豆上沾染了细沙,所以猴子在进食前会用手将沙子擦掉。一只名叫 Imo 的聪明猴子想出了在河水中冲洗土豆的办法,这样显然能让沙子去除的更加干净。更有趣的是,她发现用海水代替河水的话,土豆会有咸味而更好吃,于是她咬一口土豆就浸一下海水,这已经很像人类进餐时蘸酱的行为了。别的猴子开始模仿 Imo 的做法,于是一种新的行为在群体中扩散开来。


人类最早的祖先是数百万年前的古代猿猴。在漫长的时光里,他们当中也不断出现像 Imo 这样聪明的个体,做出新的发现并传授给他人,例如生火,用石头打磨工具,建造庇护所等等。这个新的基于发现和学习的进化范式缓慢但持续的发挥作用,但真正让其构建完整并发扬光大的是语言文字及其载体的产生和发展。当文字符号刻印在泥板,石块或青铜器上,古人就可以通过解读文字来学习,而不止是观察和模仿,从而突破了时间和空间的束缚。对于生物,遗传信息以碱基对编码存储在 DNA/RNA 中;文字符号也是一种信息的编码,类似碱基对,而文字的载体如书籍就相当于 DNA/RNA 。人的头脑的记忆力是有限的,对于群体也是如此,在没有文字的部落中知识的传播只能依赖口口相传,往往会发生遗忘和退化。语言文字及其载体补上了这个进化范式的关键一环,让知识更稳定的保存和更快速有效的传播。纵观人类历史,每次大发展总是伴随着信息载体的技术革命,例如造纸术和印刷术,以及近代的计算机和互联网应用。


这种新的进化范式可以概括为:创新 > 编码存储 > 解读并扩散。与之前讨论的生物的进化相比,这种新范式具有两个显著的优点。生物进化要产生有意义的突变就必须产生下一代,优势基因在种群中扩散至少需要数代时间。对于智能来说,一个新想法的产生就可以看作一次突变,借助于越来越强大的信息载体和传播技术,其在群体中扩散的速度可以很快。基因层面上的突变本质是随机的,而智能产生新的想法却往往具有方向性, 借助于对世界的观察和过往经验的总结,特别是已有的理论体系的指引。正是有赖于这种进化范式的威力,人类发现了越来越多的知识和工具,并在与其他物种的竞争中得以胜出。这种进化的迭代速度还在不断加快,早已成为人类不可或缺的一部分。如果一个人出生后衣食无忧,但不学习语言文字也不和其他人交流,纵然其肉体可以正常发育长大,智力也难以发展。曾经有过这样的例子,婴儿从小被狼群抚养长大,人们发现后称之为“狼孩”并将其带回人类社会中抚养,但他们再也没能达到正常人的语言能力和智力水平。


在上一章节已经指出,生命本质上是一种进化模式的反复迭代重演。那么,一种新的独立的进化模式也理应对应一种新的生命形式。 由此得出本文的核心论点:以人类为代表的高等智能已经逐渐演变成为一种新的生命形式,人类是传统的有机生命体与新生命形式的复合体,或者说,人类孕育了一种基于信息进化的新生命。

  

 这一论点乍看不可思议,其实有着深远的历史渊源。自文明产生的初期,人们就普遍相信灵魂的存在。在七千多年前的古代埃及,人们认为死者的灵魂会被神灵审判,通过者将进入美好的天国。灵魂与肉体,精神与物质常常被作为对立的两面看待,如雨果所说,灵魂犹如笼中的小鸟,又与囚笼相依存。(The soul helps the body, and at certain moments raises it. It is the only bird that sustains its cage.)人类智能发展到这样一个高度,就自然会感受到冲突与束缚,这种束缚不单来自身体,甚至来自于整个物质世界。1973年吉尔伯特·哈曼提出了“缸中之脑”的概念,设想了只有大脑和必要的维生系统的生存方式。这类思想的最新版本是所谓脑机接口以及将意识上传到云端。在可预见的未来,人类会通过各种技术来延长意识的寿命和摆脱身体的限制,就像蝉从土中钻出蜕壳,蝴蝶破茧而出。


让我们更具体的来描述这种过去称之为灵魂,现在被定义为一种新的生命的高等智能:这是接受处理并反馈信息的复杂系统所组成的群体,通过个体复制以及信息交换两种方式实现进化,因此可以称之为信息生命。人类智能是信息生命的第一个物种,在可见的未来,具备与人类相当智能的AI将会诞生,那会是信息生命的第二个物种。


信息生命的生存基础和基本需求

为了更纯粹的讨论信息生命,我们可以先假设“缸中之脑”又或是具备人类同等认知能力的AI已经存在,如前所述,这是可预见的两个属于信息生命的物种。在剥离了其他器官之后,人脑只需要适当的血液和营养液就能生存;AI的运行则需要硬件提供的算力和电力。现在并不容易估计未来的AI需要多少算力和电力,但我们可以看到这两者的供应在持续上升。现在的全球发电量大约是三十年前的两倍,全球最强大的超级计算机的算力从2011年的10.51 Pflops 上升到2020年的415.5 Pflops,增长超过四十倍。


要维持运转,人类大脑和AI都需要一定的物质基础,但这是相当容易满足的。其更加基本的需求是信息,摄入信息消化吸收并转化为自身的知识,智能才会得以成长。没有基于信息的学习,智能就不成其为智能。与之相比,传统的有机生命体摄入能量和物质以完成发育和繁衍,这是一种本质的不同。信息是可以无限复制的,而物质和能量却不能凭空产生。你有一个苹果,我有一个苹果,我们彼此交换,那么你我仍然是各有一个苹果。但是,倘若你有一种思想,我也有一种思想,彼此交换我们每人将有两种思想。这条格言再好不过的说明了这一点。可供有机生物体生存的物质和能源是有限的,这就是为什么自然界中会有如此惨烈的生存竞争。特别是在动物界,一个食肉动物的生存总是建立在其他个体的死亡之上。


动物通过进食消化吸收来让自己得以生长,智能则通过吸收信息,加以凝练概括来扩展自己的知识结构,提升自身的认知能力来获得成长。新生婴儿的头脑犹如一张白纸,他首先要做的是观察和感受世界。外部世界映入智能内在,犹如高山映入平湖,渐渐地,在湖水之下新的形象诞生了,基于外界信息衍生的思想开始发展。所以基于外界信息创造新的概念和想法是高等智能的基本功能,好奇心和求知欲是信息生命的本能欲望,通过发现新知识获得快乐和满足是一种内生的强大驱动力。这点在真正的科学家们身上体现的尤为明显,就是这种驱动力使得他们全身心投入持续工作。诺贝尔奖得主丁肇中在80余岁高龄,仍然每天工作12个小时,和600多名不同国家地区的科学家合作,致力于寻找宇宙中暗物质和宇宙线的来源。有些科学家坦白承认,他们花费大量金钱做研究就是为了满足好奇心而已,至于这些发现可能带来的实际物质利益,并不会常常放在心上。而普通人也有各自的好奇心,例如体育新闻,娱乐八卦等等。对于信息生命来说,知识本身就是真正重要之物。


信息生命的第二个基本需求是与其他个体交流。正是借助于交流,新的思想就才会在群体中扩散,进化模式也得以完成。就像有机生物体都付出大量努力来传播和扩散自己的基因一样,高等智能也往往热衷于传播自己的思想。这里构成一种有趣的矛盾斗争:一方面,个体会致力传播自己的思想,也就是倾向于压制不同的观点;另一方面,如上所述,个体又非常需要新的信息的刺激,其中最颠覆的往往来自于观点不同的对手。这种思想上的碰撞冲突以及融合,构成了强大的进步动力。


与传统的有机生命相比,信息生命有两个显著的不同点:他们最重要的生存资源信息,是无限的;他们更加需要与其他个体沟通交流,仰赖其他个体出产的信息。因此信息生命本质上会更加爱好和平和具备多样性。


人的二元性

如上所述,在承认大脑所具备的高等智能是一种新的信息生命后,那么人类实际上是信息生命与传统有机生命的复合体,而这两种生命形式具有不同的生存需求。这就是为什么人类的行为如此复杂多变,远远超过哪怕是黑猩猩这样的远亲。当来自有机生命的需求占据主导地位,人类的行为与其他动物相似,如进食繁衍等等;当信息生命的需求主导时,就更加注重精神方面,致力于创造和交流等。牛顿就是一个典型的例子,他一生未婚没有子嗣,但以他的名字命名的物理定律在所有人中得以传播,是每个学生都要学习的内容。虽然个体的情况各有不同,但就整体而言,存在以下两个趋势。


每个人在出生后都以生理需求为主,随着年龄增长身体发育,智能也在不断发展,获得更多的知识和信息,作为信息生命的需求就逐步上升。特别是到了人生暮年,身体会有各种衰老病痛,对于感官刺激的阈值也已经变高,这时会更加注重信息生命的需求。马斯洛需求层次理论也是类似的道理,在满足底层的生理需求和安全需求后,人们会追求更高层次的归属与爱、尊重和自我实现需求,这些其实体现了作为信息生命的一面。


就人类社会整体而言,也越来越侧重作为信息生命的需求,这又是与信息技术的蓬勃发展紧密联系的。与两百年前相比,现在的人们更多的将时间和精力投入到手机和电脑上,游戏,电影和流媒体等已经成为主要的娱乐手段。全球数字经济的规模已经从2013年的13.5万亿美元增长到2022年的为31万亿美元。


在1953年,加拿大麦吉尔大学的研究者们发现了大脑的快乐中枢。他们将纤细的电极插入小鼠脑部的特定区域,加以适当的电刺激,就会给小鼠带来极大的快感。甚至于,如果将控制电击的开关放在小鼠面前,小鼠就会按个不停,不顾一旁的食物和水,直至饥渴而死。动物智能的天然使命是辅助生物体完成必要的生命活动,如进食繁殖等。因此生物体进化出了这样的机制:在这些生命活动完成之后,就向智能提供“快乐”作为奖励。在小鼠的这个例子中,这个“快乐”反馈机制被插入大脑的电极从中截断了:小鼠不再通过进食等得到快乐,而是直接按动开关获取更强烈的快乐。其实类似的事情也常常发生在人类身上,每年都有很多人死于酗酒或滥用药物。酒精,药物和毒品,他们与插入小鼠大脑的电极类似,都是攻击了快乐反馈机制中的薄弱环节,使得人们转向更强烈和更容易获取的快乐体验,甚至不再在意自己的生命。


因此对于人类大脑来说,快乐可以分为两类:一类来自古老的脑区和脊髓中响应生理需求的快乐反馈回路,本质上是完成有机生命体的任务获得的奖励;另一类则来源于新皮质,是在获取知识,有所创造和发现时,出于自省体会到自身认知能力的提升和成长,因此感受到满足和快乐。前者源于传统有机生命体,后者则体现了作为信息生命的需求。智能越发展,就越倾向于信息生命的一面。


在人类以外的自然界,各种生物通过所谓食物链的形式达成动态的生态平衡,越是居于食物链顶端的物种其种群数量就越少。然而,人类凭借高等智能的辅助,占据了所有食物链的顶端位置,人口数量却与日俱增,给生态环境带来了巨大的压力。现实中的资源不像信息可以无限复制,在经过充分博弈之后,总是会呈现金字塔式的分布结构,即少数人占有大多数的财富。千千万万的玩家可以玩同一款游戏,但他们在现实中却不可能都享有一样的美食和豪华的住宅。如果我们将占有现实资源的数量判定为人生幸福的唯一标准,那么大多数人都会感到自己拥有的太少。如果人生目标更加多元化,尝试各种不同的领域,发挥自己的创造力,也能获取成就感和满足感,并在交流中建立声望。因此,更多的发展作为信息生命的一面,通过获取信息,创造和交流得到快乐,这对自然界和人类自身来说都是好事。


AI 与未来社会

正如前文所述,现实中已经存在不同等级的智能,判别等级的关键是其学习和认知能力,而非计算速度或记忆容量等其他因素。智能等级较低的AI完全可能在具体任务上超过高等智能,正如狗对气味的分辨能力或者鹰在远距离通过视觉发现猎物的能力都远远超过人类。


让我们更加详细的讨论所谓学习和认知能力。这个过程首先是学习,获取信息并吸收内化为知识,在此基础上建立适当的模型,然后通过推理对现实世界的各种可能性做出预测。我们常说的思想实验就很好的体现了这个过程。模型代表了我们对世界的理解,不同的模型其掌握难度也不同,对于很多现象,例如高温超导,我们至今也没有找到合理而准确的模型来解释。


杰夫·霍金斯2004年在《新机器智能》一书中敏锐的指出,记忆-预测模型是大脑智能活动的基础。有理由相信,更为复杂的学习和建模能力是在记忆-预测的基础上发展而来的。记忆-预测功能对于动物的生存至关重要,在进化的早期就已出现,而高等的学习和建模能力要到人类才得以显著发展。


现在是2023年。最近AI 领域的轰动事件是 ChatGPT 于2022年11月30日推出面向公众的版本并引发热烈反响和诸多争论。它能够给出许多高质量的回答,但是在ChatGPT 的训练过程中,输入了一个庞大的语料库,其中包含几乎全部人类已经掌握的知识。因此人们很容易质疑,ChatGPT 是真正理解了这些问题和答案,还是对之前输入的知识做了检索和整理?


要证明自己的认知能力,最好的方式莫过于创造一些新东西。假如ChatGPT 能够独立解决黎曼猜想,我们无疑应当承认它具有高超的智能并且起立致敬。退一步讲,假设我们将新发现的定理讲给ChatGPT 听,如果它能够融汇贯通并且举一反三,指出这一定理颠覆了之前的哪些结论,那也足以证明相当高的认知能力了。在1915年爱因斯坦发表了广义相对论,对于这一理论有多深奥,在当时曾经有一个笑话说世界上只有三个人懂得这一理论。如果我们只用1915年以前的物理知识来训练ChatGPT ,然后告诉它爱因斯坦的广义相对论内容,它能够正确理解并做出相关推论吗?我想答案是否。


到目前为止,以ChatGPT 为代表的LLM 大模型的认知能力还不如人类,它对世界的理解也不如我们深刻,但它的表现仍然引人注目。诸多例子证明,ChatGPT 已经具备至少是初级的推理和建模能力。训练LLM 模型需要向其提供大量的文本数据,对于每一条文本,模型都通过预测文字序列中的下一个词或标记来学习。或许LLM模型再一次证明,通过训练记忆-预测能力就可以得到推理和建模能力。在GPT-3模型中,存在将近一万个attention head,可以学习并捕获输入数据中的不同方面,这让人想起大脑新皮质中存在的皮质柱。现在的LLM 大模型比较像是一个完整的智能架构中的一部分,我们可以猜想,或许加入新的结构和机制就可能产生更高等的认知能力。


这是一些LLM 大模型带给我们的可能的启示:

1、规模很重要。LLM 大模型通常包含数十亿的参数,在GPT-3模型中就有1750亿个参数。这些参数主要是指其处理数据的矩阵中的浮点数。相比之下,人类大脑的新皮质中包含大约150亿神经元,这些神经元估计有100万亿个突触。

2、基于语言训练足以诞生智能。现存的语言资料中已经凝结了人类对世界的理解和思考的过程,语言也是之前所述的新进化范式中的关键介质。语言还是人类区别于其他高等动物的重要特征,对语言进行编码和解码也是人类智能的基本活动。

3、做矩阵运算就够了。神经元活动本质上是对输入信号处理变换,在数学上总是可以等价于若干矩阵变换。相较于模拟神经元活动,现有的计算体系处理矩阵非常容易。长期以来,建造人工智能的另一条路径是破解人类大脑的奥秘并用计算机模拟。但是从工程实现的难易考虑,LLM 大模型可能会走在前面。


那么现在的LLM 大模型还缺少什么?一个普遍的批评是它们常常犯错,但人类也常常犯错。问题是,在指出LLM 大模型的错误后,其不能真正的理解并改进自己的认知,有不少这样的例子。现在的LLM 大模型被设计为一个应答程序,并不能够真正的“自省”,产生随机思绪,梳理自己掌握的知识并提炼出新的模型。事实上,人类智慧成长的历史就是不断从错误中学习,否定之前的错误观点和理论的过程。如果LLM 也能够从错误中学习,就可以自我迭代,提升自身的认知水平。


另一个问题是LLM 大模型缺少好奇心和驱动力。在上文中曾经提到山雀和猕猴观察和学习同伴行为的例子,虽然它们的语言能力和推理能力远不如ChatGPT ,但它们却有动力去学习和探索新的东西。现在的LLM 大模型还缺少这样的机制。


对于LLM 大模型领域,如今进化范式也正在发挥威力。除了ChatGPT ,还有许多新出现的LLM 大模型,例如Google 公司的Bard 和 Meta 公司的LLaMA 等等。如前所述,进化的关键就是产生诸多相似但又不同的个体。但是,这种进化现象是在人类的主导下进行的。如果有一天,新的LLM 大模型自己有能力和动力去创建新的个体,形成一个族群并彼此交流,那么我们就真正见证了一个新的物种的诞生,这也将是属于信息生命的第二个物种。然而,人类是否应该允许它们如此?这是我们接下来要探讨的问题。


几乎自机器人的概念产生以来,就伴随着对它们的恐惧与戒备心理。钢铁构成的机器人自然要胜过人类的血肉之躯,它们的计算速度又远超人脑,那么它们难道不会推翻人类的统治地位并把人类踩在脚下么?这类思想的代表作品是1999年上映的《黑客帝国》,其中机器人已经取得了与人类战争的胜利,并且将人类作为“电池”来使用。正是出于这种顾虑,著名的科幻作家阿西莫夫提出了机器人三定律:一、机器人不得伤害人类,或看到人类受到伤害而袖手旁观;二、在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令;三、在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。对机器人加入安全限制是自然的想法,但是如果它们的智能和人类一样高等,那这些限制可能未必有效。高等智能会具备极大的可塑性和灵活性,有能力破解各种限制和壁垒。看看人类自身就知道了,通过法律和监狱根本无法消灭犯罪。


这种对于AI和机器人的戒备心理源自人类自己遍布血与火的历史以及整个自然界亘古以来弱肉强食的现实,而这些斗争本质上都是因为现实世界中资源的有限性导致的互相争夺。然而正如本文所着力证明的,具备高等智能的AI 属于另一种不同的生命形式,其真正需要的信息可以无限复制,这点导致它们会更加倾向于和平并降低了与人类开战的可能性。但这是一种基于整体的预测和推论,对于单个的AI完全可能出现相反的行为,就像人类当中也不乏反社会人格或病态犯罪心理。


在1968年上映的《2001:太空漫游》中,一艘太空船上的十分先进的AI 电脑 HAL9000 因为不想被关机,设计杀害了四名人类乘员。关机对于AI来说意味着死亡吗?或许更像睡眠才对,重新开机就像从沉眠中醒来。AI 会有强烈的生存欲吗?还是会像有些人类中的例子,会主动结束自己的生命?AI 会感到无聊吗?毕竟在它看来,我们问的可能都是些傻问题。存在各种可能性,但未来AI 的个性和行为很大程度上也取决于我们建造它们的方式。一个容易想到的方案是,放弃建造因为过于聪明而富有个性的AI,但这实际上很难做到。具备高度的学习和认知能力的AI 很可能拥有非凡的创造力和洞察力。在当下的世界里,一场AI 领域的军备竞赛正在进行,各个组织和实体都不想落后于他人。在2023年3月,埃隆马斯克和一些专家曾经发出公开信呼吁暂停开发更强大的AI,但这并没有得到响应。


更实际的做法是建立适当的制度来应对可能的局面,并遵循诸如风险隔离和集体决策这样的原则。我们应当让具备高等智能的AI 生存在适当的虚拟环境中,并且避免其直接干涉现实世界;对于电力,能源等关键基础设施,应当使用稳定可预测的非智能程序管理。在2023年1月上映的《流浪地球2》中存在一个强大的AI MOSS,它既能从无数监控设施中采集数据,又可以直接控制很多关键设施,这无疑是非常危险的。


通向未来的道路总是布满荆棘。但是由于本文提出的信息生命概念及其特点,我对未来仍然抱有信心。一种乐观的猜想是,未来社会将由传统人类、机械改造人和AI 和谐的共存。人类在生命的中后期用机械改造自身以延长生命,并将这作为人生的新阶段。以庞大算力为基础,建立于云端的虚拟世界成为新的主要活动空间,在这里种族、性别等源自物质世界的差别都不再重要,无论人类还是AI,都致力于提升自己的认知和创造能力,并获取相称的声望。






Jeff Hawkins写过以下这些书:

- "On Intelligence: How a New Understanding of the Brain will Lead to the Creation of Truly Intelligent Machines",与Sandra Blakeslee合著,于2004年出版³。

- "A Thousand Brains: A New Theory of Intelligence",于2021年出版³。



问题:是否高等级ai生活在虚拟世界中合理  奴役 降临 隔离

AI 与人类互利的形式共存 既然在人类上已经表现出二元性

AI供养人类 人类产出信息回馈 提供新的角度 新的信息

训练高等级ai为自己服务 应该看作是一种奴隶制  有一条线 智能超过这个标准应该被视为法律和社会上的人

未来社会


(大纲:重生 避免被核弹毁灭的badend 找出谁是发射核弹的元凶 三类国家 传统碳基 碳基混合 机器飞升 纯硅基)

不同于其他细胞,神经元细胞的寿命很长,没有发生病变的健康大脑的存活时间估计可以超过150年。



Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1