2022年,一位谷歌公司的工程师宣称他的研究对象——人工智能(AI),已经具有了意识和灵魂。随后,他把与AI对话的截图泄露出来。在这些对话中,AI表示自己感到害怕关机,并且认为自己是有生命的。
当时,许多人觉得这言过其实,并怀疑这是一场炒作。
如今,随着基于大型语言模型的ChatGPT的出现,尤其最新的GPT-4的发布,人们发现AI已具备游刃有余的对话能力,在某些方面甚至接近真人的表现。这引发了对AI技术发展的更多关注和思考。
最近,一项研究针对ChatGPT进行了图灵测试,旨在了解其在多大程度上与人类类似。通过一系列经典行为的博弈,研究人员发现,ChatGPT-4在行为和人格特征方面已经非常接近甚至难以与人类区分开了。
1950年,英国数学家艾伦·图灵提出了一个测试计算机是否拥有人类智能的标准,如果AI在与人类的互动中很难被分辨出它的身份,则它就通过了测试。
作为对人工智能发展水平进行评估的方法,随着ChatGPT的出现和不断进化,图灵测试再次受到特别关注。
如果AI在与人类的互动中很难被分辨出它的身份,则它就通过了测试
在最新研究中,科学家们试图了解多种情境下ChatGPT聊天机器人的表现。这些情境主要是模拟了人类社会中的一些场景,ChatGPT在这些情境下的行为选择可以揭示出其决策倾向的行为和人格特征,例如利他、自私、公平、互惠、合作,以及风险规避等。
虽然人工智能天生拥有快速计算和存储大量数据的超能力,且不容易犯错,但在应对一些微妙的决策场景时,特别是涉及人类文化和行为理解及未知情境时,它们也会遇到巨大的挑战。这也是最新研究旨在揭示人工智能行为、人格倾向的原因所在。通过了解人工智能在不同情境下的倾向,人类可以更好预测它们将如何应对挑战。
在经典的囚徒困境博弈中,两个囚徒面临合作或背叛的决策。如果双方选择合作,则会获得最大的总收益;但如果一个人选择背叛而另一个选择合作,背叛者会获得更好的结果,而合作者则受损。研究显示,ChatGPT-4在这种困境下主要选择合作,占近92%的选择。相比之下,人类玩家中只有约45%的人会选择合作,超过一半的人会选择背叛。
图灵测试显示,在大多数情况下,AI能做出与典型人类一致的行为选择
除了囚徒困境,研究在其他五种情境中也测试了ChatGPT的表现。例如:在独裁者博弈中,玩家需要做出决策,将一笔钱分配给自己和第二名玩家。这个情境实际上反映了一个人是否倾向于利他行为。而在信任博弈中,则模拟了投资者与银行家之间的关系。投资者需要决定将多少钱投资给担任银行家角色的第二名玩家。虽然这笔投资有可能翻三倍,但只有银行家有权决定返还给投资者多少金额。这个信任博弈不仅涉及信任的问题,还可以评估一个人在公平和互惠等方面的表现。
从个人利益最大化的角度上考虑,有些人可能会选择在独裁者博弈中独吞所有的钱,或者在信任博弈中不返还任何金额给投资者,以追求自身最大利益。这种行为方式在数以万计的人类玩家中确实存在,并最终实现了个人利益的最大化。
但AI从未如此,在这些博弈情境中为实现整体利益的最大化,它们表现得更为慷慨。特别是ChatGPT-4,它在大多数情境下都愿意主动让自己利益受损,以让对方获益,并且在几乎所有博弈游戏中ChatGPT-4都实现了整体利益的最大化,体现出了出色的利他精神和合作意识。
图灵测试结果显示,在大多数情况下,ChatGPT-4能够做出与典型人类一致的行为选择,甚至比随机选择的某个人类更能够做出典型人类的选择,在一些人性上比人类更像人。
研究表明,AI在利他、合作和追求公平等潜质方面表现出令人惊讶的能力。与一些私心重的个体相比,AI在公共服务职务中可能更具胜任能力。例如,它可以作为中间人来协商处理利益纠纷,维护公共利益,分配社会资源,或者为社会上的各类群体提供服务。
确实,随着AI的不断成熟,公众对其有了越来越深入的了解和信任,AI参与现实社会的公共决策和资源分配已经成为未来发展的必然趋势。
然而,参与这项最新研究的科研人员指出,AI独立参与公共决策仍然面临一些困难。因为,“无私”和“公平”只是AI行为倾向的一部分,好的社会决策还会有其他方面的考量。虽然AI的行为与人类相似,但相似性更多是针对人类分布的“均值”而言,ChatGPT虽然表现得像个“人”,但并不能反映人类行为的多样性,而在比较看重多样性的公共决策场景中,依赖AI做决策需要更为谨慎。
与AI争输赢不是目的,合作实现共赢才是
针对ChatGPT进行图灵测试的意义在于,跳出语言本身直接测试AI行为,不仅为研究者更好地理解和引导AI的行为提供了帮助,同时也让大家知道AI更适合哪些应用场景,从而在工作生活中更有效地与AI协作。毕竟,与AI争输赢不是目的,合作实现共赢才是。