数字化 | 大语言模型不能做什么?
▋数字化
人工智能不太可能另起炉灶将人类智能远远甩在身后,像AlphaFold这样的知识生产应用也表明,人工智能的未来发展趋势将是深度的人机合作。
原文:大语言模型不能做什么
作者 | 上海社会科学院哲学研究所助理研究员 阮 凯
图片 |网络
以大语言模型为代表的大模型技术正在引领新的人工智能热潮,人文社会科学领域也对大模型多有关注,相关讨论多集中于它的社会影响、伦理风险和治理策略。但在技术治理之外,如果我们以大语言模型为切入口,系统地总结大模型能做什么、不能做什么,哪些事情是人能做得好而大模型做不好的,这将有助于我们更好地发挥其优势、认清其局限,避免对它的过度神化。
不能创造语言
大语言模型代表了人类在人机交互事业上的巨大进步,其成功也是人类智能的成功,表明了自然语言是人机交互的核心语言媒介,不是人说机器的语言,而是机器在说人的语言;不是人在模仿机器的思想表达,而是机器在模仿人类的思想表达。因此大模型至多是会使用语言,而远谈不上能创造语言、发明语言。恩格斯认为人类从劳动中创造了语言,他写道:“语言是从劳动中并和劳动一起产生出来的,这个解释是唯一正确的……动物,甚至高度发达的动物,彼此要传递的信息很少,不用分音节的语言就可以互通信息。”动物之间只需要传递危险到来、食物在哪等简单信息,但劳动让人类的语言得以产生,社会劳动和社会分工愈复杂,语言也就愈复杂。著名语言哲学家维特根斯坦和恩格斯的观点不谋而合,他做了这样一个比喻:“我们的语言可以被看作一座老城,错综的小巷和广场,新旧房舍,以及在不同时期增建改建过的房舍。”语言之所以像老城一样,是因为老城是不断修建、错综复杂的,而语言也同样随着劳动和实践的深入而不断地生成、变化与发展。
而大语言模型的基础仍然是深度学习技术,即利用大量的文本数据来训练模型,只不过模型的参数规模更为庞大,但与产生语言的劳动、实践根本不沾边,比如,用英语语料训练的模型也自然只会说英语。反观人类,不同国家、不同民族的人往往说着不同的语言,即使同一个国家也有不同的方言,比如汉语方言就通常分为十大方言,这些多样的语言生长在人们的生产劳动和生活实践土壤之上。如果大语言模型不能像人一样创造语言,那么我们就清楚了大语言模型的第一个局限性,更没有必要对大语言模型顶礼膜拜。
不能深度理解人类
大语言模型的优秀对话表现,缘于AI训练师对模型的不断训练,以及设计了强化学习的奖励机制。大语言模型在人机交互上的优秀表现,让一部分用户误以为人工智能一下子具有了像人一样的心智,人机之间达成了充分的理解,似乎通用人工智能近在咫尺。但从语言哲学的视角看,理解有多个层面和程度,能够给出恰当回应只是理解的一个部分,这并不意味着它能完全理解人类,因为深度理解一句话,需要对说话者的语境有全面理解。如同维特根斯坦所认为的,“环境给予这事情以重要性”,字面信息往往是浮出水面的冰山一角,而环境信息往往是水面以下的冰山,包括大到时代风貌、社会结构、生活形式,小到说话者的习惯态度、立场观点、情感情绪等丰富内容。熟人之间的深入理解,往往是因为对话双方熟知彼此的环境信息,一句话、一个单词甚至一个动作就能传递丰富的信息。
人类通过日积月累的具身体验、生存感受、经验观察、交往实践、总结概括等活动,才能准确把握对话的环境信息。而当人们与大语言模型对话时,就与熟人之间的对话理解有所不同,我们只管提出问题,而会极度省略环境信息,即使偶然附上环境信息,对这些信息的提供也不会完全穷尽和准确。大语言模型在应对人类问题时选择的策略是“既然你不说,我也不问”,也不会去搜集提问者的环境信息,而是专注像单字接龙般更好地回应提问者的问题。大语言模型虽然常常能回答人类提出的问题,但这种回答也只意味着对人类的浅层理解,而深层理解不仅需要语言上的恰当回应,也需要生活实践上的理解。从语言哲学角度看,语言理解问题要结合生活形式、人类生存问题加以考虑,只有关注生活形式和生活世界,在生活实践上达成理解才是深层的理解。比如我们看到天灾人祸,会有切身感受,这是一种悲喜与共的深层理解,罗素所言的“对人类苦难不可遏制的同情”也是超越浅层理解的深层理解。所以说,大语言模型目前只是人类生存实践的旁观者和应答者,缺乏共情能力,还达不到像人类理解那样的深刻性与丰富性,而深层理解更彰显人类智能的特殊性。
不能全面嵌入社会
人工智能的发展史,也是对什么是智能的理解史。一方面,随着人工智能的发展,被奉为圭臬的图灵测试已难以全面评估人工智能的智能水平了。即使有些机器通过图灵测试,它可能仍与人类智能相差很远。另一方面,包括“智能”在内的任何概念都与人类的话语实践紧密地结合在一起,智能概念的内涵不是固定的,而是随着人类对智能的认识而不断地被深入理解,在此过程中人们逐渐意识到,人类智能的提升离不开人类社会的进步。
马克思认为,人脑、劳动和语言三者互相促进,而社会为人类的大脑、劳动和语言的发展提供了“强有力的推动力”和“更加确定的方向”。从马克思哲学的视角看,社会无疑是人类智能的基石,聪慧的个体如果脱离社会,其智力发展也会停滞不前,残缺的个体如果嵌入社会,其智力也会得到尽可能充分的发展,“狼孩”、海伦·凯勒等案例无不说明这一点。著名社会学家哈里·柯林斯更是指出,当前的人工智能发展离完全嵌入人类社会还很远。他提出两大金律:其一,没有计算机能够流利地使用自然语言,通过严格的图灵测试并拥有完全的类人智能,除非它完全嵌入正常的人类社会;其二,基于当前技术的渐进式进步,无法让计算机完全嵌入人类社会。从柯林斯的观点看,大语言模型的技术特点仍然是深度学习的渐进式进步而已,它还不能完全社会化,因此无论它们变得多么好,以ChatGPT为代表的大语言模型仍然不能像人一样在社会中进行交往与实践,不能以人类体悟语境的方式来体悟语境,因此,谈论ChatGPT拥有媲美人类的智能,完全理解人类的语言,还为时尚早。
我们需要以客观中道和实事求是的态度看待大语言模型,大语言模型不能创造语言、不能深度理解人类、不能全面嵌入社会这三个层面揭示的是一个共同的问题,即人类和大模型的智能—语言机制有着根本的不同。今天我们思考大语言模型不能做什么,其价值是:第一,有助于提防新一代人工智能的泡沫化发展,明确大语言模型的界限。例如,由于盲目乐观,由欧盟牵头并耗费10年和近47亿人民币的“人类脑计划”如今仍然没能取得预期成果,饱受社会各界批评。如果不去思考大语言模型的界限,一股脑地发展大语言模型,也可能会陷入与“人类脑计划”相似的困境。第二,有助于全面思考人工智能未来的发展方向。既然现有的深度学习技术无法让人工智能全面社会化,那么这会引导科学家去探索,未来什么样的技术方案能让人工智能进一步社会化呢?第三,有助于凸显人机合作的重要价值。大语言模型等新兴AIGC技术体现了未来人工智能的发展方向将是更紧密的人机合作,人类智能中仍有很多精妙的地方值得机器学习,人工智能不太可能另起炉灶将人类智能远远甩在身后,像AlphaFold这样的知识生产应用也表明,人工智能的未来发展趋势将是深度的人机合作。
(本文系上海市社科规划青年课题“经典伦理学与认知科学哲学视域下的机器伦理研究”阶段性成果)
文章为社会科学报“思想工坊”融媒体原创出品,原载于社会科学报第1867期第6版,未经允许禁止转载,文中内容仅代表作者观点,不代表本报立场。
本期责编:宋献琪
拓展阅读
人才强国 | 人工智能时代职业技能迭代向何处去
数字化 | 大语言模型需要克服诸多关键问题