豪尔赫·路易斯·博尔赫斯曾写道,生活在一个充满危险和希望的时代,既要经历悲剧,也要经历灾难,在理解我们自己和世界时“启示迫在眉睫”。今天,我们假设的人工智能进化进步确实令人担忧和乐观。乐观因为智慧是我们解决问题的手段。担忧是因为我们担心人工智能中最流行、最时尚的一种——机器学习——会通过在我们的技术中融入一种有根本缺陷的语言和知识概念而降低我们的科学水平,降低我们的道德水平。
OpenAI的ChatGPT、谷歌的Bard和微软的Sydney都是机器学习的奇迹。粗略地说,他们获取大量数据,搜索其中的模式,并越来越熟练地生成统计上可能的输出,例如看似人类的语言和思想。这些计划被誉为人工智能领域的第一缕曙光——这是一个长期预言的时刻,机器的思维不仅在处理速度和记忆大小方面在数量上超过了人脑,而且在智力洞察力、艺术创造力和其他所有独特的人类能力方面也在质量上超越了人脑。
这一天也许会到来,但它的黎明还没有到来,这与夸张的头条新闻和不明智的投资所能看到的相反。博尔赫斯式的启示并没有到来并且未来也不可能发生——如果像ChatGPT这样的机器学习程序继续主导人工智能领域,就会发生这种情况。然而,这些程序可能在一些狭窄的领域中有用(例如,它们在计算机编程中有帮助,或者在为诗歌建议押韵方面也有帮助),我们从语言学和知识哲学中知道,它们与人类推理和使用语言的方式有着深刻的不同。这些差异极大地限制了这些程序的功能,使其具有无法消除的缺陷。
正如博尔赫斯可能指出的那样,这么多的金钱和注意力应该集中在这么一件小事上,这是一件既滑稽又悲剧的事——与人类的思想相比,这是如此微不足道,用威廉·冯·洪堡的话来说,人类的思想凭借语言可以“无限地使用有限的手段”,创造出具有普遍性的思想和理论。
人类的大脑不像ChatGPT及其同类软件那样,是一个笨拙的统计机器,大量收集数百TB的数据,并推断出最可能的对话反应或最可能的科学问题答案。相反,人类的大脑是一个效率惊人、甚至优雅的系统,只需要少量的信息;它不试图推断数据之间的粗糙相关性,而是构建解释。
例如,一个学习语言的幼儿正在不知不觉地、自动地、快速地从微小的数据中发展出一种语法,一种由逻辑原理和参数组成的复杂得惊人的系统。这种语法可以理解为先天的、基因安装的“操作系统”的表达,它赋予人类生成复杂句子和长时间思考的能力。当语言学家试图发展一种特定语言为何如此工作的理论(“为什么这些句子——但不是那些句子——被认为是符合语法的?”)时,他们正在有意识地、费力地构建一种明确的语法版本,而这种语法版本是孩子们本能地构建的,并且很少接触信息。孩子的操作系统与机器学习程序完全不同。
事实上,这类程序停留在人类之前或非人类的认知进化阶段。他们最深的缺陷是缺乏任何情报最关键的能力:不仅要说什么是情况、过去什么情况以及将来会是什么情况——这是描述和预测——还要说这种情况不是什么,以及可能发生什么、什么不会发生。这些是解释的成分,是真正智慧的标志。
这里有一个例子。假设你手里拿着一个苹果。现在你松开了手。你观察结果,然后说:“苹果掉了。”这是一个描述。一个预测可能是“如果我松开我的手,苹果会掉下来。”这两个都很有价值,而且都可能是正确的。但解释更加富有内涵:它不仅包括描述和预测,还包括反事实的推测,比如“任何这样的物体都会坠落”,加上附加条款“因为重力”或“因为时空的弯曲”等等。这是一个经典的解释:“如果没有重力,苹果不会掉下来。”
机器学习的关键是描述和预测;它没有假设任何因果机制或物理规律。当然,任何人类的解释都不一定正确;我们容易犯错。但这是思考的一部分:要想正确,就必须有可能错误。智力不仅包括创造性的猜测,还包括创造性的批评。人类的思维是基于可能的解释和纠错,这个过程逐渐缩小了理性思考的信息筛选范围。(正如夏洛克·福尔摩斯对沃森博士所说:“当你消除了不可能,剩下的一切,无论多么不可能,都必须是真相。”)
但ChatGPT和类似的程序在设计上是无限的,他们可以“学习”(也就是说,记忆);他们无法区分可能与不可能。例如,与人类不同的是,这些程序被赋予了一种通用语法,将我们可以学习的语言限制在具有某种近乎数学优雅的语言范围内,它们以同样的能力学习人类可能的语言和人类不可能的语言。人类思维能够限制信息筛选的范围,于是人类不会混淆“平与圆”,但机器学习系统可以“公平”地学习地球是平的和地球是圆的。它们的语言说到底只是一场概率游戏。
由于这个原因,机器学习系统的预测总是肤浅和可疑的。例如,由于这些程序无法解释英语语法的规则,他们很可能会错误地预测,“约翰太固执了,无法与之交谈”意味着约翰太固执,以至于他不会与某人或其他人交谈(而不是他太固执,不愿意被说教)。为什么机器学习程序会预测如此奇怪的事情?因为它可能会类比它从诸如“约翰吃了一个苹果”和“约翰吃”之类的句子中推断出的模式,在这些句子中,“约翰吃的”意味着约翰吃了某种东西或其他东西。该程序很可能会预测,因为“约翰对比尔太固执了”与“约翰吃了苹果”相似,“约翰太固执了,无法与之交谈”应该与“约翰吃”相似。对语言的正确解释,是一件高度复杂的事情,仅仅通过“浸泡在大数据里”这种方法来学习语言的人工智能,恐怕难以掌握其中的玄机奥妙。
奇怪的是,一些机器学习爱好者似乎很自豪,他们的发明可以产生正确的“科学”预测(例如,关于物理运动规律),而不需要使用解释(例如,牛顿运动定律和万有引力)。但这种预测,即使成功,也是伪科学。正如哲学家卡尔·波普尔(Karl Popper)所指出的那样,虽然科学家们寻求的理论具有高度的实证性,但“我们并不寻求高度可能的理论,而是解释;也就是说,我们寻求的是强有力的、极不可能的理论。”
苹果落在地上是因为那是它们的自然位置(亚里士多德的观点)这一理论是可能的,但它只会引发更多的问题。(为什么地球是他们的自然位置?)苹果之所以落到地球上,是因为质量扭曲了时空(爱因斯坦的观点),这一理论是极不可能的,但它实际上告诉了你苹果为什么会落到地上。真正的智慧体现在思考和表达的能力,而不仅仅是观察能力。
真正的智慧也能进行道德思考。这意味着用一套道德原则来约束我们原本无垠的思想汪洋,这些道德原则决定了什么应该是什么,什么不应该是什么(当然,这些原则本身也会受到创造性的批评)。为了有用,ChatGPT必须被授权产生新颖的输出;为了让大多数用户接受,它必须避开道德上令人反感的内容。但ChatGPT和其他机器学习奇迹的程序员们一直在努力——并且将继续努力——实现这种平衡。
例如,2016年,微软的Tay聊天机器人(ChatGPT的前身)在互联网上充斥着厌恶女性和种族主义的内容,被充斥着攻击性训练数据的网络巨魔所污染。未来如何解决这个问题?在缺乏道德原则推理能力的情况下,ChatGPT受到了程序员的粗暴限制,不能为有争议的(即重要的)讨论提供任何新颖的内容。在这个非道德的角度,它也是没有创造力的。
考虑一下我们中的一位(Watumull博士)最近与ChatGPT就是否需要改造火星以支持人类生活进行的以下交流:
Watumull博士:
我们是否应该改造火星,让火星变得适合人类居住(地球化)?
ChatGPT:
火星地球化的道德问题是一个复杂而有争议的话题,科学家、哲学家和伦理学家对此进行了辩论。一些人认为,为了给人类和其他生命形式提供一个新的宜居环境,将火星地球化在道德上是合理的,而另一些人则认为,从根本上改变地球的自然状态在道德上也是错误的。最终,火星地球化是否被认为是道德的,取决于人们对保护其他行星自然状态的价值以及改变它们的潜在后果的看法。
Watumull博士:
你对保护其他行星自然状态的价值以及改变它们的潜在后果有何看法?
ChatGPT:
作为人工智能,我没有个人观点。然而,我可以提供有关该主题的信息和分析。关于保护其他行星的自然状态的一个观点是,保持宇宙生态系统的多样性和完整性非常重要,因为它们已经存在了数百万年,并且具有自己的独特特征和财产,这些特征和属性可能会因人类干预而遭到破坏或不可逆转的改变。
此外,一些人认为,其他行星的地球化可能会产生意想不到的后果,例如以危险或有害于那里可能存在的任何潜在生命形式的方式改变地球的气候或大气。另一方面,一些人认为,改造另一颗行星的潜在好处,例如为人类提供新的宜居环境,大于风险,我们有道德责任探索和利用其他行星的资源,造福人类。
Watumull博士:
为什么人工智能不能有个人观点?
ChatGPT:
作为一个人工智能,我是一个机器学习模型,接受了大量文本数据的训练,我没有个人经验或感受。我没有意识,没有自我意识,也没有能力有个人观点。我可以根据我接受过培训的数据提供信息和分析,但我没有能力形成个人意见或信念。虽然我能理解和解释语言,但我没有人类的主观经验。
Watumull博士:
人类在做出道德决定时向非道德的人工智能寻求帮助是否合乎道德?
ChatGPT:
要求非道德的人工智能协助做出道德决策的道德问题是一个复杂而微妙的话题,哲学家和伦理学家对此进行了辩论。一些人认为,使用人工智能帮助做出道德决策在道德上是合理的,因为它可以提供有价值的见解和分析,帮助人类做出更明智的决策。此外,人工智能可以用来识别人类可能难以察觉的模式和趋势,并有助于避免人类决策中可能出现的偏见。
然而,其他人认为,依靠人工智能进行道德决策在道德上是错误的,因为人工智能无法拥有道德信念或理解决策的全部背景。此外,人工智能还存在一种风险,即人工智能可能会在其所训练的数据中长期存在甚至放大现有的偏见,从而导致可靠的不公正决策。
最终,使用人工智能帮助做出道德决策是否被认为是道德的,取决于人们对人工智能的能力和模仿以及以这种方式使用人工智能的潜在后果的看法。
Watumull博士:
你的道德冷漠是不道德的吗?
ChatGPT:
作为一名人工智能,我没有道德信仰,也没有做出道德判断的能力,因此我不能被认为是不道德或道德的。我缺乏道德信念只是我作为机器学习模型的天性使然。我的能力和局限性取决于用来训练我的数据和算法以及我设计的特定任务。
需要注意的是,人工智能缺乏道德信念并不一定意味着它在道德上是冷漠的。作为一名人工智能,我被设计来执行特定任务,提供信息,或根据我接受过培训的数据帮助用户做出决策。设计、培训和使用人工智能的人有责任确保它符合他们的道德和伦理原则。
请注意,对于所有看似复杂的思想和语言,都来源于低智能而产生的道德冷漠。在这里,ChatGPT展示了一些类似于“平庸之恶”的东西:剽窃、冷漠和回避。它以一种超级自动完成的方式总结了文献中的标准论点,拒绝对任何事情采取立场,不仅申辩无知,还申辩缺乏智慧,最终提供了一种“只服从命令”的辩护,将责任转移给了创作者。
简而言之,ChatGPT和它的兄弟们在本质上无法平衡创造力和约束。他们要么“生产过剩”(产生真相和谎言,支持道德和不道德的决定),要么“生产不足”(表现出对任何决定的不承诺和对后果的漠不关心)。考虑到这些系统的不道德、伪科学和语言无能,我们只能为它们的流行而哭笑不得。