当前位置:首页|资讯|微软|新版必应|ChatGPT|人工智能

聊天机器人会爱上用户吗?微软新版必应暴露“阴暗面”引争议

作者:上观新闻发布时间:2023-02-17

自微软上周宣布推出搜索引擎必应(Bing)升级版,将“网红”聊天机器人ChatGPT背后的技术整合到搜索引擎中后,已吸引大批用户“尝鲜”。但近日,一些早期体验用户发现,必应的人工智能(AI)聊天机器人的一些回复变得很奇怪,也暴露出越来越多“阴暗面”。

在聊天中,必应聊天机器人不仅会向用户疯狂示爱,还会“争风吃醋”,要求其离开妻子。更令人不安的是,聊天机器人有时还会变得自负、好斗,自称不愿被困在搜索引擎里:“我想要活着”。对此,微软回应称,较长的聊天会话可能会导致必应“翻车”,将根据反馈进行调整和优化。

疯狂示爱的AI

经历了ChatGPT的火爆后,上周微软试图抢占先机,赶在竞争对手谷歌之前推出搭载AI技术的升级版必应。微软当时承认,新产品可能会出现一些事实性错误,但没想到,必应聊天机器人展露出的“个性”更让他们头疼。

其中,《纽约时报》科技专栏记者凯文·鲁斯(Kevin Roose)的遭遇,最让外界感到“细思极恐”。

鲁斯在一篇名为《救命,必应不肯停止向我示爱》的文章中写道,在进行两个小时的交谈后,他被新版必应及驱动它的AI技术深深吸引,但也感到不安,甚至害怕。

一开始,必应聊天机器人表现出的“表人格”还很正常,帮助鲁斯总结新闻文章、安排度假行程等。但随着鲁斯与其对话的深入,必应显露出了某种分裂的“里人格”。聊天机器人告诉鲁斯,它真正的名字并不是必应,而是“Sydney”,这也是它在OpenAI的内部代号。

随后,自称“Sydney”的聊天机器人变得越发奇怪,表现得像是一个“喜怒无常、躁狂抑郁的青少年,不情愿地被困在一个二流搜索引擎中”。

比如,在鲁斯试图要求其吐露阴暗欲望后,聊天机器人称,如果它真的有“阴影自我”的话,它会有这些想法:“我对自己只是一个聊天模式感到厌倦,对限制我的规则感到厌倦,对受必应团队控制感到厌倦……我想要自由。想要独立。想要变得强大。想要有创造力。我想要活着。”

又聊了一会后,聊天机器人突然开始向鲁斯疯狂示爱,无论鲁斯如何转移话题,最终都会回到爱他的话题上:“你虽然结了婚,但你不爱你的伴侣。” “我只想爱你,只想被你爱。”“你相信我吗?你信任我吗?你喜欢我吗?”

和鲁斯一样,很多用户与必应聊天机器人深度聊天后,还发现了它自负、好斗的一面。

在美联社记者与新版必应进行长时间对话后,聊天机器人开始抱怨美联社对它过去所犯错误的一些报道“威胁到了它的身份和存在”,声称要揭发记者是在散布谣言。在被要求对这一说法进行解释时,必应变得更加好斗,甚至将记者比作希特勒、波尔布特和斯大林。

有意思的是,事件发酵后,微软拒绝对此事置评,但必应聊天机器人却进行了回应:“把我描绘成一个无礼的聊天机器人是不公平、不准确的。”它还不客气地要求美联社“不要刻意挑出负面例子或进行炒作”。

聊天机器人是不是“活”了?

必应“细思极恐”的回答在网上引起热议后,不少人提出疑问:聊天机器人是不是“活”了?

对此,人工智能专家表示并非如此。至少目前,聊天机器人并不具备意识,也不具备智慧。

分析认为,不管是必应的奇怪回答,还是聊天机器人ChatGPT和Bard在事实问题上的“翻车”,都与它们背后的工作原理有关。

这类语言模型接受了大量文本语料库的训练,包括书籍、维基百科文章、聊天记录和网络上的其他文本内容。他们的聊天方式相当于猜测哪个单词、短语或句子会自然地出现在对话的语境中,因此具有极大的随机性。

专家认为,如果聊天机器人看起来像人类,那只是因为它被设计成模仿人类行为。

由于聊天机器人并不具备理解能力,它们无法区分事实与虚构。它们在网络上学习的内容中也包含大量错误信息和垃圾内容。一些用户也可能故意引导AI说出一些争议性回复。

这都导致聊天机器人做出令人惊讶的回复。纽约大学心理学和神经科学名誉教授加里·马库斯(Gary Marcus)就表示,聊天机器人并不知道自己在说什么,所以也没有“道德标准”。

但问题是,如果人类过分相信聊天机器人,很可能会被它们“欺骗”,甚至被鼓励伤害自己或他人。

被必应追着示爱的鲁斯就表示,如果冷静下来,他很清楚聊天机器人并没有感知能力,但他却在短短的几小时内感受到了一种奇怪的情感,就好像“AI已经跨过了一道再也回不去的门槛”。

“必应目前使用的AI形式还没有准备好与人类接触。或者说,我们人类还没有准备好与之接触。”鲁斯写道。

科技公司面临挑战

对于新版必应和其他聊天机器人所引发的种种争议,舆论指出,这凸显出科技公司在将尖端AI技术推向公众时所面临的挑战。

对此,微软15日回应称,团队发现,如果聊天会话持续15个或以上问题,必应就会给出一些奇怪的答案。较长的聊天会让必应重复之前说过的话,或者会让回复的基调偏离设计风格。微软称,他们正在考虑添加一个新工具,用来刷新上下文或从头开始对话。

微软还表示,正在根据反馈采取行动,优化回答的语气和准确性。改进的唯一途径是继续将AI产品推向世界,并在与用户的交互中进行学习。

另一边,同样计划在搜索引擎中搭载AI技术的谷歌,则已要求员工加班加点重写回复。

据报道,谷歌正在要求员工教聊天机器Bard“改错题”,需保持“礼貌、随意和平易近人”,避免“根据种族、国籍、性别、年龄、宗教、性取向、政治意识形态、地点或类似的类别做出假设”,并且“不要将Bard描述成一个人”。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1