一、人工智能为何需要哲学?
为何作为人文学科的哲学能与理工科的AI发生积极联系?
1.思考大问题,澄清基本概念。这里所指的大问题是极具基础意义的问题,比如数学哲学家追问数学家“数”的本性为何,物理哲学家追问物理学家“物质”“能量”的本性如何。与哲学家相比一般的自然科学家往往只是在自己的追求中预设了相关答案,却很少系统地反思这些答案的合法性。
2.在不同学科的科研成果之间寻找汇通点,而不受某一具体学科视野之局限。比如科学家往往追问这样的问题:如何汇通生物学研究的成果和化学研究的成果?是不是所有的生物学现象都可以还原为更为微观的化学现象?而所有的化学现象是否可以还原为更为微观的微观物理学现象?或者存在着另一种不同于“还原论”的汇通方式?
3.重视辩论和辩护,相对轻视证据的约束。这就是说评价哲学工作优劣的标准,主要看一个哲学论证本身的合理性和常识可接受性,却一般不用受到严格的科学证据的检测。而对于科学而言,合理的辩护程序却必须和实打实的经验证据相互匹配,否则导出的结论就无法被科学共同体所接受。
二、起源:
说到该学科的起源,就不能不谈到一篇经典论文和一个重要会议。1950年10月,伟大的英国数学家、逻辑学家和计算机科学的理论奠基人阿兰·图灵(Alan Turing,1912-1954)在英国哲学杂志《心智》上发表了论文《计算机器和智能》[1]。在文中他提出了著名的“图灵测验”(Turing Test)的思想,并认为判断一台人造机器是否具有人类智能的充分条件,就是看其言语行为是否能够成功地模拟人类的言语行为(具体而言,若一台机器在人机对话中能够长时间误导人类认定其为真人,那么这台机器就通过了“图灵测验”)。
三、为何AI科学对哲学的宽容度相对来得就比较高?
这首先和AI科学自身研究对象的特殊性相关的。AI的研究目的,即是在人造机器上通过模拟人类的智能行为,最终实现机器智能。很显然,要做到这一点,就必须对“何为智能”这个问题做出解答。然而,不同的解答方案往往会导致截然不同的技术路径。
其次,AI科学自身的研究手段,缺乏删除不同理论假设的决定性判决力,这在很大程度上也就为哲学思辨的展开预留了空间。我们知道,在成熟物理科学那里有所谓“判决性实验”的说法,即通过一个精心构思的实验来决定性地驳倒一个科学假设。其最著名的案例,即麦克尔逊莫雷实验对于“以太”假设的证伪。但与物理学家不同,AI科学家一般不做实验(experiment),而只做试验(test)——就这一点而言,这门学科似乎更像是工科(engineering),而非理科(science)。说得更具体一点,判断一个AI系统好不好,其标准就在于检验其是否达到了设计者预定的设计目标,或者其是否比同类产品的表现更好——但这些标准自身无疑存在着很大的弹性。另外,即使这些标准暂时没有被满足,这也不能够证明系统的设计原理的失误,因为设计者完全可能会根据某种哲学理由而相信:基于同样设计原理的改良产品一定能有更佳的表现。
四、符号主义与联结主义:
古希腊为AI提供了至少两个思想资源:第一是德谟克利特的机械唯物主义。根据这种学说,世界中出现的所有事态都可以被视为原子的机械配置方式(如原子的直线和偏离运动)。这就蕴涵了:人类的灵魂活动——作为世界中的一类事态——也可以被系统地还原为原子的配置形式(具体而言,在德谟克利特看来,“灵魂原子”只是比别的原子更为精微和灵活而已,并非在本体论上自成一类的对象)。
第二个思想资源则是古希腊人的形式主义传统,即通过形式刻画来澄清自然语言推理的歧义。在这个问题上做出贡献的哲学家,主要有毕达哥拉斯、苏格拉底、柏拉图和亚里士多德四人。其中,毕达哥拉斯明确把“数”视为世界的本原,这就为后世科学对数学语言(以及一般意义上的形式语言)的推崇定下了大调子。在这个问题上,今日的新派AI(崇尚各种统计学方法)和老派AI(崇尚形式逻辑)都可算作是毕达哥拉斯主义的后人。
五、我们怎么理解联结主义与符号主义?
这里所说的“符号主义”,相当于通过符号化的规则来编制AI的程序的做法,而“联结主义”相当于通过对于神经元结构的数学建模来编制AI程序的做法。
六、为什么说,与在时间上更为晚近的十七、十八世纪哲学相比,古希腊人的思想还是和AI隔了三座山?
第一座山是:在古希腊人那里,机械唯物主义和形式主义传统基本上还是两条进路,而没有机会在同一个思想体系中得到整合。
第二座山则是:心智理论的构建还不是古希腊哲学家的核心关涉,而只是其形而上学理论的一个运用领域(比如柏拉图的灵魂学说就是对其“相论”的一个运用,而亚里士多德的灵魂学说则是对其“潜能—现实”学说的一个运用)。
第三座山则是:各种人工机械在古希腊世界的运用还非常有限,复杂程度也很低,这就在客观上限制了思想家对于“人造机械到底能够做些啥”这个问题的想象力。
七、塞尔的观点与汉字屋论证
塞尔先从术语厘定的角度区分了两个概念,第一是“强人工智能”(强AI):这种观点认为,计算机不仅仅是人们用来研究心灵的一种工具,而且,被恰当编程的计算机本身就是一个心灵。第二则是“弱人工智能”(弱AI),其想法是:计算机至多只能够成为人们研究心灵的一种工具,或是对心智活动的一种抽象模拟。在这两种立场之间,塞尔支持的是弱AI,反对的是强AI。具体而言,塞尔是通过一个诉诸常识的论证来反对强AI论题的:
大前提:每一种真正的心灵/智能都必须有能力在符号与对象之间建立起一种语义关系;
小前提:这种语义关系无法仅仅通过任何一台被恰当编程的计算机所获取;
结论:计算机本身不可能具有真正的心灵,因此强AI无法实现。
假设一个说英语的被试被关在一个房间内,他与一个屋外的检测者通过彼此传递字条来交流。现在已知:
(1)字条本身仅仅只能够用汉语写成;
(2)被试不懂汉语;
(3)检测者懂汉语;
(4)检测者不知道被试是否懂汉语,因此他的任务便是通过与被试的交谈证实或证伪这一点;
(5)在屋中,被试无法获得汉英词典或英汉词典,他只能够得到:
(a)一个装满卡片的盒子——其中的每张卡片都写着一个汉字(卡片是如此之多,以至于没有遗漏任何一个已知的汉字);
(b)一本以英语为工作语言的规则书,以便告诉读者在面对由哪些汉字所构成的问题时,他应当如何从盒子中取出相应的汉字来构成合适的应答。
这样的规则书是纯粹句法性质的,也就是说,不涉及汉语的语义。
在以上这五个条件被给定的情况下,再假设被试的确通过了“汉语语言测试”——也就是说,测试者的确无法辨识被试的言语行为与一个真正懂汉语者的言语行为之间的差别——那么,被试是否就真的因此懂得了汉语呢?塞尔认为答案显然是否定的,因为被试在“汉字屋”中所做的,只是在根据规则书机械地搬运符号而已。他根本无法将任何一个汉语表达式独立翻译成英语。
八、西方学界的反驳:
第一条思路是:汉字屋中的人只要能够通过“汉语测试”,那么在屋外人眼中,他就算懂汉语了——换言之,他所具有的“我不懂汉语”这个主观直觉并非用以评判他是否懂汉语的标准(这就是对于汉字屋论证的“他心应答”。
第二条思路是:纵然汉字屋中的人不懂汉语,但是如若我们再在这个被试之外增添一些要素,我们就能够由此整合出一个能理解汉语的“能动者”(agent)来。比如,包含被试在内的整个汉字屋系统就是懂汉语的。
备注:以上内容根据本人读书划线的内容所整理