当前位置:首页|资讯|ChatGPT|谷歌|微软|人工智能

ChatGPT成功的秘密武器:人造同理心

作者:腾讯科技发布时间:2023-05-02

划重点

1、谷歌和微软都已经发布了由ChatGPT底层技术支持的聊天机器人,但这种工具在确保提供事实准确的答案方面却不尽人意。

2、科技记者帕尔米·奥尔森发现,由于开发者可能优先考虑人工智能使用的流畅性而非准确性,促使聊天机器人特别擅长模仿人类的同理心。

3、测试显示,ChatGPT的表现非常出色,它在社会意识、关系管理和自我管理方面都获得了满分,在自我意识方面只是略有失误。

4、专家警告称,不要想当然地认为人工智能可以填补需要心理健康支持的人的情感空白,许多人类之间的微妙感觉可能会因此消失。

腾讯科技讯 所谓同理心,通俗来说就是将心比心,也就是设身处地地对他人的情绪和情感予以理解,并加以抚慰。同理心是人类所独有的吗?人工智能是否也会拥有同理心?国外科技记者帕尔米·奥尔森发现,由于开发者可能优先考虑人工智能使用的流畅性而非准确性,促使这类工具特别擅长模仿人类的同理心。换言之,冷冰冰的机器正以人造同理心作为秘密武器,代替有体温的真人来为我们提供情感安慰。

今年早些时候,普林斯顿大学计算机科学教授阿尔文德·纳拉亚南为其将近四岁的女儿建立了ChatGPT语音界面。这是个小实验,部分是因为他相信人工智能将来会成为女儿生活中的重要组成部分。

纳拉亚南表示,女儿的好奇心很重,经常询问有关动物、植物和人体的问题,他认为ChatGPT可以为她的问题提供有用的答案。然而,令纳拉亚南感到惊讶的是,当告知OpenAI开发的这款聊天机器人在与一个小女孩对话时,它表现出近似乎于人类的同理心。

纳拉亚南的女儿问道:“灯灭了会怎么样?” ChatGPT通过人工合成的声音回应称:“当灯熄灭时,天就黑了,这可能会让人有点可怕。不过别担心! 你可以做很多事情来让自己在黑暗中感到安全和舒适。”

随后,ChatGPT给了纳拉亚南的女儿许多关于使用夜灯的建议,最后提醒她“人们在黑暗中感到有点害怕是正常反应”。小女孩显然对这个解释很满意,而且学会了如何应对黑暗。

更适合当情感伴侣而非搜索工具

微软和谷歌正急于用支持ChatGPT的大语言模型技术来增强他们的搜索引擎,但我们有充分的理由相信,这项技术作为情感伴侣比作为事实提供者更有效。

这听起来可能让人觉得很奇怪,但更奇怪的是,谷歌聊天机器人Bard和微软必应(基于ChatGPT底层技术升级)在被定位为搜索工具时,却有着令人尴尬的事实错误历史:Bard在其第一次演示中给出了关于詹姆斯韦伯望远镜的错误信息,而必应在微软的一系列财务数据上犯了错误。

当聊天机器人用于搜索时,事实错误的代价通常很高。但人工智能伴侣应用程序Replika的创始人尤金尼亚·库伊达表示,当它被设计成伴侣时,其犯错的代价则要低得多。Replika的下载量已超过500万次。库伊达补充道:“这不会毁掉用户体验,不像搜索那样,哪怕是微小的错误也会破坏用户对产品的信任。”

谷歌前人工智能研究员玛格丽特·米切尔曾与人合作撰写了一篇关于大型语言模型风险的论文,她称大型语言模型根本不适合作为搜索引擎。

语言模型之所以会出错,是因为它们所训练的数据经常包含错误,这些模型也没有掌握可以验证它们所说内容的基本事实。此外,它们的设计者也可能优先考虑流畅性,而不是准确性。

用ChatGPT充当机器人治疗师

这就是这些工具为何特别擅长模仿同理心的原因之一。毕竟,他们正向网上抓取的文本学习,包括用户在推特和Facebook等社交媒体平台上发布帖子的情绪反应,以及Reddit和Quora等论坛上向用户展示的个人支持。电影和电视剧脚本中的对话、小说中的对话以及关于情商的研究论文都被纳入了训练之中,以使这些工具看起来具有同理心。

有鉴于此,许多人将ChatGPT用作机器人治疗师也就不足为奇了。有人认为,他们利用ChatGPT作为治疗手段是为了避免成为别人的负担,包括将自己的痛苦传给自己的人类治疗师。

为了测试ChatGPT的同理心能力,科技记者帕尔米·奥尔森对它进行了一次在线情商测试。他提供了40道选择题,并让ChatGPT用对应的字母来回答每个问题。结果显示,ChatGPT在测试中表现非常出色,在社会意识、关系管理和自我管理方面都获得了满分,在自我意识方面只是略有失误。事实上,ChatGPT在测试中的表现比许多人类还要好。

通过人工合成的同理心,让一台冷冰冰的机器为我们提供安慰让人感觉非常不真实,但这确实有意义。我们与生俱来的社交需求和大脑反映他人感受的能力意味着,即使对方并不是真心地理解我们的感受,我们也能获得被理解的安慰。在我们的大脑中,当我们感受到其他人(包括聊天机器人)的同理心时,所谓的镜像神经元就会激活,帮助我们感觉到一种连接感。

聊天机器人提供不了心动感

当然,同理心涉及到很多方面,要真正体验它,我们确实需要房间里有个有温度的身体来分享我们的感受。

伦敦国王学院临床心理学家托马斯·沃德研究了软件在治疗中的作用,他告诫人们不要想当然地认为,人工智能可以填补需要心理健康支持的人的情感空白,尤其是在他们的问题很严重的情况下。例如,聊天机器人可能不会承认一个人的感情太复杂而无法理解。换句话说,ChatGPT很少说“我不知道”,因为它的设计倾向于自信而不是谨慎地回答问题。

扩展到更广泛的范围,人们应该警惕习惯性地求助于聊天机器人来发泄自己的感受。沃德说,在一个将人工智能聊天机器人视为人类孤独解决方案的世界里,人类之间的微妙感觉可能会消失,比如触摸手的那种心动感。这可能最终会产生比我们认为自己正在解决的更多的问题。但就目前而言,聊天机器人的情感技能至少比它们对事实的把握更可靠。(金鹿)


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1