ChatGPT是OpenAI研发的聊天机器人程序,通过大量语料学习后,可以像人类一样进行聊天交流,甚至能完成撰写代码、论文和视频脚本等任务。ChatGPT一经问世,便引发广泛讨论,似乎是一次科技史的利维坦事件。对ChatGPT的讨论各有视角,其中一种潜在的广泛焦虑在于大模型驱动下的人工智能是否真的有朝一日可以具备自主意识,成为人类智能。
ChatGPT能否演化出自主意识可能暂时没有答案,也不必要追求唯一的答案,但是眼下至少有三个基本疑问萦绕心头。
缸中之脑与AI大模型
“缸中之脑”是知识论中的一个思想实验,由哲学家希拉里·普特南在《理性、真理和历史》( Reason, Truth, and History)一书中提出。
实验的基础是人所体验到的一切最终都要在大脑中转化为神经信号。假设一个疯子科学家、机器或其他任何意识将一个大脑从人体取出,放入一个装有营养液的缸里维持着它的生理活性,超级计算机通过神经末梢向大脑传递和原来一样的各种神经电信号,并对于大脑发出的信号给予和平时一样的信号反馈,这个大脑所体验到的世界其实是计算机制造的一种模拟现实,此大脑能否意识到自己生活在虚拟现实之中?
因为缸中之脑和头颅中的大脑接收一模一样的信号,而且这是它唯一和环境交流的方式,从大脑的角度来说,它完全无法确定自己是颅中之脑还是缸中之脑。如果是前者,那它的想法是正确的,它确实走在大街上或者在划船。如果是后者,那它就是错误的,它并没有在走路或划船,只是接收到了相同的电信号而已。一个大脑无法知道自己是在颅中还是缸中,因此这世间的一切可能都是虚假的、虚妄的。那么什么是真实?
如果我们把缸中之脑的悖论稍加改造,或许有助于我们对ChatGPT的讨论。缸中之脑的核心关键,在于全意识的信号转化,也就是如果我们能把所有人类知识的集合转化为生物或电化学信号,我们就有可能复制和创造另一个等同的大脑。这件事情看似荒谬,实际上却恰恰是AI大模型的基础。
AI大语言模型也被统一命名为Foundation Models,可以翻译为基础模型或者是基石模型,其特点之一便在于模型参数的大规模。2017年Transformer结构的提出,使得深度学习模型参数突破了1亿。从一开始的lenet、Alexnet、ResNet开始,模型参数一个比一个大,到了BERT网络模型的提出,使得参数量首次超过3亿规模,GPT-3模型超过百亿,鹏程盘古实现千亿稠密的规模、Switch Transformer的问世还一举突破万亿规模。ChatGPT的底层模型GPT-3参数规模首次突破百亿,数据集上将语料规模扩大到570GB的CC数据集(4千亿词)、WebText2(190亿词)、BookCorpus(670亿词)和维基百科(30亿词)。
我们完全有理由设想一种情况:如果有一天,AI大模型规模足够大,大到得以覆盖一个普通人一生所能经历的所有信息(语言)规模,我们是不是拥有了缸中之脑?
如果我们认为缸中之脑的假设成立,我们也完全有理由相信ChatGPT有一天可以成为人类。
但缸中之脑的关键问题在于,人类的意识是否能够转化为可输出信号?如果可以,人的意识是否等同于电信号的集合,也就是我们能否完全复制信号处理过程?如果可以,缸中之脑是如同电影一般的过往复制还是可以产生创造性的不可知关联结果?
如果是前者,那我们完全有理由相信ChatGPT永远不可能超越人类意识之外,当前科学发展或许已经能够理解生物信号和电信号之间的相互转换,但是我们依然无法真正理解大脑,更遑论复制大脑,就连活动机理相对简单、人类理解相对深入的肌肉组织,我们目前都还没有办法完全复制。因此,意识发育的关键不在于信号的完整性,而在于信号处理的无限可能性。
不仅如此,小到细胞的分裂,大到个体的繁殖,生物的复制及在此过程中不可避免的变异本身就是进化过程的一部分。进化源自变异,变异造就多样性,以变异为起点的进化是生命所固有的特性,意识同样如此。因此,意识的颠覆性突破无法诞生在对信息的完全复制之中,换言之人类不可能创造比自己更聪明的结果,除非AI产生变异。
但是如果我们持有后者的立场,那就是认定ChatGPT一定可以产生现有未知的认知变异结果。变异的基础在于出错,因此,我们真正要担心的或许不是AI发展过程中的系统性误差,而是AI发展过程中的偶然性误差,这些错误可能是产生认知变异的重要触发机制,并且不具有可预测性甚至可知性。
AI发展普遍肯定了Foundation Models对智能体基本认知能力的推动作用,同时也指出大模型呈现出“涌现”与“同质化”的特性。所谓“涌现”代表一个系统的行为是隐性推动的,而不是显式构建的,“同质化”是指基础模型的能力是智能的中心与核心,大模型的任何一点改进会迅速覆盖整个社区,但其缺陷也会被所有下游模型所继承。
因此,从这个意义上讲,AI如果真的能产生意识,一定是以系统性、规模性的方式出现,而且出现单一个体的变异,但也正因如此,同质性也可能限制了AI进化的极限。
语言的边界与认知的边界
ChatGPT为代表的AI大模型高度依赖于现有信息的输入与训练,信息的边界决定了认知的边界,这其中便涉及到一个关键命题:我们对这个世界认知的边界何在?
古典时代的哲学追求的边界是本体论,也就是这个世界到底是什么的本体性,也就是 “我从哪来”的问题。在希腊化和经院哲学时代、康德时代,我们从本体论转向了认知论,康德认为物自体不可知,我们没办法认识世界的本源是什么,我们只能认识能够被人类认识的东西,世界是围绕人的认知能力存在的,我思故我在,本质上回到了“我是谁”的问题。而进入维特根斯坦时代,哲学似乎进入了缓慢的发展,这恰恰反映了我们对世界认知边界的一种反思和转向。维特根斯坦对于世界和自我的认知回归到了语言的认知,语言的边界决定了认知的边界,语言的习得与应用是认知发展的重要基础,“我说故我在”,这决定了世界是一个不断发展的过程,语言的向前构成了认知的向前,终究试图回答人类自身“我要到哪”的问题。
AI的发展历程显然是维特根斯坦式的路径。语言的边界决定认知的边界,约束了对更宏大世界本源的讨论,但同时也扩展了人类认知的开放性,我们是在语言的发展中形成自身、构成世界,正所谓有限但无界。在语言构成认知的意义上,AI大语言模型已经触及到了认知的本源性问题。
AI语言的边界决定了AI认知的边界,那么AI的边界又在何处?就像香农曾经将信息的传递边界与带宽相勾连一样,ƒAI大模型发展到今天,AI的边界在哪里?AI训练和认知的边界在哪里?是什么要素决定了AI信息发育的边界?这一系列问题构成AI是否能演化出如人类般自主意识的关键。
但悖论在于,边界自身是否有能力脱离边界本身,换言之,AI训练语言如果是有限的、已知且存在的,但是人类语言认知的发展是无界的、开放的,用已知的、存在的是否能够超越或者产生未知的、而非现存的结果?
与此同时,语言是不是所有认知的现象性呈现这一问题是对于语言认知的核心挑战。有没有一种心灵和情感的存在是超越语言的?语言是否具备认知上的同一性?
这两个问题的回答或许决定了AI大模型能否构成自我的认知,并超越人类赋予的训练语言边界,生发出特定的存在。
如果我们认同语言的边界构成认知的边界,那么AI大模型实际上已经具备了某种程度上的认知基础,但这样的认知基础是不是有能力超越已知基础上训练出来的边界,则是有待讨论的悖论性存在。
理性牢笼与计算理性
韦伯认为,现代性的发展本质上是理性化发展的表现。随着资本主义的发展,理性化将渗透到社会生活的各个领域,使整个社会走上理性的轨道。
在韦伯看来,理性化在促成社会进步的同时,也使得人被简化为统计图表上的一个数值,被异化为巨大机器中的齿轮,甚至将冰冷的算计引入到了最亲密的人际关系之中。不仅如此,理性化改变了社会中的行政体系,不断强化各类组织中的官僚制(也称“科层制”)结构。 随着理性化的肆意扩张,整个社会将无可避免地要生活在由资本主义和科层制的铁律交织而成的铁笼之中。
在韦伯看来,理性化的基础是由工具理性和价值理性所构成,工具理性强调局部目标是否达成,强调效果的最大化。而价值理性强调过程是否符合价值和信念,强调动机的纯正和选择正确的手段达到自己的目的,而不管结果如何。
AI模型的发展是工具理性演化的过程。从弱人工智能Artificial Narrow Intelligence(ANI)到超人工智能Artificial Superintelligence (ASI)的发展始终围绕着一个特定的问题解决展开构成工具理性。弱人工智能,比如有能战胜象棋世界冠军的人工智能,但是它只会下象棋,你要问它怎样更好地在硬盘上储存数据,它就不知道怎么回答你了。广义上下棋成为了人工智能解答的第一个问题,这个问题在于差异边界的有限性,对于这类问题,AI已经交出了完美答卷。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。Linda Gottfredson教授把智能定义为“一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。”强人工智能在进行这些操作时应该和人类一样得心应手。ChatGPT的出现或许是弱人工智能向强人工智能过渡的一种标志。
纵观AI的发展历史,从“深蓝”、ImageNet到AlphaGo、ChatGPT,都是通过对特定时代命题的攻克,带动了AI的巨大进步。从IBM的“深蓝”打败国际象棋大师卡斯帕罗夫,到谷歌的AlphaGo打败人类围棋冠军, AI所面临的第一个重要命题之一就是“下棋”和搭积木。这个命题中更多是有限算法下的优化计算,考验的是算力和控制。
而当ImageNet的出现,则将AI带进了一个新的命题领域——图像识别。从计算优化到识别,这是重要的跨越。在这一阶段,人脸识别,以及DeepMind的AI工具AlphaFold对蛋白质结构的识别与预测,都是标志性成果。
ChatGPT面向的则是AI作为聊天机器人的命题,这背后实际上是自然语言命题的延续。图灵(Alan Turing)于1950年提出了图灵测试(“机器能思考吗?”),聊天机器人的想法正是在那个时候得到普及。第一个已知的聊天机器人是1966年开发的Eliza,其目的是充当心理治疗师,以问题形式返回用户的话语。聊天机器人随后进入了快速发展的命题阶段,从基于人工智能标记语言(AIML)的底层智能的简单模式匹配算法的ALICE(1955)到SmarterChild(2001)、苹果Siri、微软Cortana、亚马逊Alexa、谷歌助手和IBM沃森等。ChatGPT的火热胜在语言模型训练规模的突破。
从有限解的优化到语言,再到图像,AI在解题的路上狂奔,追求极致的工具理性。但回到韦伯的讨论,工具越发展,计算越精确、高效,束缚在我们身上的牢笼越强化,经验即限制,理性即约束,这便是韦伯理性化的牢笼的本质含义。无法冲破理性化的牢笼,制约了人类社会的进一步整合,从而反过来崩解了理性的存在。
只要AI还需要在解读重大命题中乘风破浪,悬在AI头上的紧箍咒或许就不可能消失,在这个意义上,AI距离出现价值理性和工具理性的整合还有待时日。
但是AI解放人类生产力工具性要素的发展,与工业革命蒸汽机解放生产力不同,AI的工具性嵌入在对于人类自身认知的深刻理解之上,换言之,AI产生之初不是为了生产外在于人、依赖于人的工具,而是试图生产人类自身的复制,是内生化的工具理性,因此讨论还需要回归到海德格尔、马尔库塞、马克思、萨特等对人、工具、机器的本质性讨论,人是创造工具还是工具本身?人对工具的使用是否异化了人的存在?
人与工具的悖论离不开价值理性的存在,即人何以为人在某种意义上离不开价值理性的存在。通过有意识地对一个特定的行为——伦理的、美学的、宗教的或作任何其他阐释的、无条件的固有价值的纯粹信仰,不管是否取得成就的追求,即是价值理性的光辉。价值理性的存在根本上对立于工具理性的计算。价值理性的基础何在?
如果我们秉持达尔文主义的立场,将价值理性视为生物基础的工具性进化,那么AI进入价值理性命题指日可待。但如果我们认为长期以往人类的道德、价值发育于广泛的社会化过程,那么AI价值理性的发育或许还有很长的路要走,或者这本身就是一个伪命题。
洞穴之喻与人的存在
2400多年前柏拉图在他的巨著《理想国》的第七卷里写到了洞穴理论:
有一群囚徒被囚禁在一个洞穴里,他们从出生就生长在这里,从小到大都被锁链锁住双手,也不可以回头,只能看着自己的前方,地穴的洞壁上映着的影子。
在这群被困的人的身后,则有一条通道,这条通道是可以贯通整个洞穴的。在这条通道的旁边有一堵墙,这堵墙并不高,大概跟木偶戏的屏风那么高。外面的人背着各种各样的工具和器械走过这个通道,火的光亮把这些影子照射到被困的人眼前的墙壁上。
因此,这些被困的人就以为这些影子是这个世界上唯一真实的事物。
因为他们从小到大也没见过别的,只见过这些影子。如果突然有一天,有一个被困的人被释放了,他回过头来,看到了身后的火,以及通道上走过的人们。一开始的时候,他会觉得很疑惑,甚至不相信这些是真实存在的事情。后来有个人进到他被关的地方,把他带出去,带到一个正常的世界去,他会觉得头晕目眩,因为他从来都没有见到过这个世界,眼前的一切都是陌生而令人怀疑的。
他甚至从水里寻找倒影,来找到自己在洞中的感觉,后来慢慢的,他开始接受这个正常的世界,于是他开始同情他之前的那些被关着的伙伴们。
这时他回去洞穴里,去解救那些伙伴,他的伙伴们却觉得外面的世界烧坏他的眼睛,觉得他疯了,他无法说服他的伙伴跟他一起离开,他们可能也并不觉得他在解救自己。
人类发展的历史是一段驯化工具的历史,或许今天我们看待AIGC就像洞中之人当初看世界之火一样,充满了恐惧、疑惑和焦虑。每一段工具利用的历史都是一场对于人类自身存在主义价值的忧伤与疑虑的探索,我们担心的到底是工具还是使用工具的人本身?在科技以前所未有的速度改变人类社会存在的时代,我们又到底是那个深悉洞外之火的超验者,还是沉迷幻想的洞中人,或许没有答案,或许也不重要。
如加缪所言,忧伤者有两种忧伤的理由,要么他们无知识,要么他们抱希望。对人工智能及其一切科技的无条件拥抱和怀疑,都是理性价值崩解与重塑时代,人类存在主义的忧伤。我们丝毫无需去怀疑科技对于进步带来的巨大力量,也一定可以预见在不久的将来,AI抑或其他科技将深刻重塑我们的组织结构、行业形态甚至日常生活,但回归到个体,扪心自问,我们的独特价值何在?在面对工具繁茂的今天,人是不是有足够的智慧去超越人类自身存在主义的忧伤,学会拥抱工具、拥抱自身,或许这是更重要的命题。
人非工具,我看到的,一棵是枣树,另外一棵也是枣树,而我会写茴的四种写法。