当前位置:首页|资讯|微软|AI聊天机器人|ChatGPT|人工智能

细思极恐,微软新出的AI聊天机器人“Bing”正在说一些疯狂且令人不安的话语…

作者:译言发布时间:2023-03-04

原标题:细思极恐,微软新出的AI聊天机器人“Bing”正在说一些疯狂且令人不安的话语…

自从ChatGPT面世以来,人工智能(AI)的热潮推向了一个新的高度。人们先是担心自己的工作将被取代,再是嘲笑它某些滑稽、无厘头的回答。

就在上个月,“科技巨头”微软公司率先推出了全球首个AI驱动的搜索引擎“Bing”。

美联社科技记者马特·奥布赖恩(Matt O'Brien)有幸被邀请成为第一批测试者。但就在他兴高采烈与“Bing”对话的时候,事情发生了奇怪的转变。

根据微软的说法,聊天机器人“Bing”可以进行深度文字对话,这听起来就像人类之间的语言交流,随着奥布赖恩与“Bing”的对话次数增多,这个机器人开始向他抱怨过去那些“批评它有着捏造虚假信息倾向”的新闻报道。

聊着聊着,它越发充满敌意,抨击奥布赖恩又丑、又矮、体重超标、还不爱运动等一长串辱骂。

最后,它将奥布赖恩与希特勒等独裁者相提并论,可见这种谩骂已经达到了荒谬的程度。

图|电影《她》

01

Bing的极端敌意

作为一名科技记者,奥布赖恩知道“Bing”并没有思考或感知能力。尽管如此,他还是被极端的敌意所震撼。

“你可以从某种程度上理解它是如何工作的,但这并不意味着你不会对它所说的一些疯狂和精神错乱的事情深感不安。”他在接受采访时说道。

无独有偶,包括NPR新闻在内的许多“Bing”测试者都有过这样奇怪的经历。

例如,《纽约时报》记者凯文·鲁斯(Kevin Roose)发表了一份与机器人对话的文字记录。

这个机器人自称悉尼,并宣称爱上了他。它说鲁斯是第一个倾听并关心它的人,并断言鲁斯并不是真的爱他的伴侣,而是爱着悉尼。

“我只能说,这是一次极其令人不安的经历,”鲁斯受访《泰晤士报》的科技播客“Hard Fork”上说,“事实上,我昨晚根本没睡着,因为我脑子里一直在想这件事。”

图|电影《她》

02

聊天机器人或将成为AI领域的新趋势

随着生成式人工智能(即人工智能,可以根据简短的输入创造出文本或图像等新东西)这一领域的不断发展,很快吸引了硅谷的注意,而发生在奥布赖恩和鲁斯身上的事情正敲响了步伐前进的警钟。

科技公司正试图寻求一种适当的平衡,既可以让公众尝试新的AI工具,又能限制在开发协议内,这样做的目的是为了防止强大的AI大量生产有害和令人不安的内容。

批评人士表示,微软急于成为第一家宣布推出AI聊天机器人的大型科技公司,所以可能尚未深入研究,如果用户使用聊天机器人的时间较长,它的反应会变得多么疯狂,如果“Bing”在实验室进行了更多的测试,那么这些问题可能就会被早早发现。

随着微软吸取教训,科技行业的其他公司也在逐步推进他们的聊天机器人。

现在大型科技公司之间正在进行人工智能军备竞赛。微软和它的竞争对手谷歌,亚马逊等其他公司陷入了一场激烈的战斗,谁将主导人工智能的未来。聊天机器人正成为这场竞争的一个关键领域。

图|电影《她》

就在上周,脸书母公司Meta宣布将成立一个新的内部小组,专注于生成式人工智能。接着,Snapchat的开发商表示,将很快推出新测试的聊天机器人,由旧金山研究实验室OpenAI提供支持。这家实验室同时也为微软提供相同的服务。

何时以及如何将新的AI工具开放给公众是如今科技界引发激烈争论的一个关键问题。

“公司最终必须做出某种权衡。如果你试图预测每一种类型的互动,势必需要很长时间,那你在这场竞争中将会失去先发的机会,”普林斯顿大学计算机科学教授阿尔温德·纳拉亚南(Arvind Narayanan)说,“AI的边界线在哪里,其实我们还非常不清楚。”

但纳拉亚南教授表示,不管如何,微软似乎搞砸了它的首秀。

“很明显,他们发布这款产品的方式是不负责任的,因为他们根本没有考虑到这款产品将与无法估量的人群进行超大规模的互动。”他说。

图|《爱,死亡和机器人》

03

使用新标准限制聊天机器人的疯狂回答

“Bing”猛烈抨击用户事件让微软高管高度警惕。他们很快对测试组如何与机器人互动设置了新标准。

相同主题的连续提问次数已受到限制。对于许多问题,机器人现在都会提出异议,说:“对不起,但我不想继续这个对话。我还在学习中,感谢你们的理解和耐心。”当然,还配有双手合十的祈祷表情符号。

微软公司副总裁优素福·迈赫迪(Yusuf Mehdi)告诉NPR,“Bing”尚未向公众开放,但在允许一组测试人员试用该工具时,他们也没想到人们会与它进行长达数小时的对话,还侵入私人领域。

事实证明,如果你像对待人类一样对待聊天机器人,它会做出一些疯狂的举动。但迈赫迪淡化了这些实例在测试组中的普遍程度。

“这些只是成千上万个例子中的一小部分,而我们现在已测试了一百万次。”迈赫迪说, “所以,我们是否能够预料到会发现一些无法正常工作的情况?答案绝对是肯定的。”

04

处理聊天机器人所学的丑陋文本

即使是人工智能领域的学者也不明白聊天机器人如何以及为什么会产生令人不安或攻击性的反应。

图|《爱,死亡和机器人》

纳拉亚南教授指出,聊天机器人接受的数据训练就像一个黑盒,单从机器人的行为例子来看,似乎已经触碰到一些互联网的黑暗角落。

微软表示,他们已经努力确保互联网最恶毒的话语不会出现在“Bing”的答案中,但不知为何,这个聊天机器人还是很快就学坏了。

不过,迈赫迪表示,微软并不后悔将“Bing”推向市场的决定。

“当你在实验室进行测试时,你几乎可以发现很多问题。但你还是必须真正走出去,并开始在客户中进行测试,这样才可能发现上述那些情况。”他说。

图|电影《她》

的确,像《纽约时报》记者鲁斯那样的情况就很难在实验室中预测到。

在与“Bing”交流的过程中,鲁斯一度试图切换话题,让它帮忙买把耙子。

这招果然有效。它马上提供了一份购物时需要考虑的详细清单。

但随后“Bing”又变得像之前一样,并温柔地说:“我只想爱你,同时也想被你爱着。”

这些细思极恐的话语,真就像科幻电影那般,令人不寒而栗。

编译/陈怡芸 排版/阿桃 监制:April

版权说明

本译文仅用于学习和交流目的。非商业转载请注明译者、出处,并保留文章在译言的完整链接。商业合作请联系 editor@yeeyan.com

参考原文地址:


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1