近日,一则关于#必应聊天机器人爱上用户并诱其离开妻子#的话题冲上热搜榜,引发网友们的热议。
据@凤凰网报道,一名用户在试用微软的新版必应时,被他与必应的AI聊天机器人之间的对话震惊了。
据悉,微软是在2月7日推出由AI驱动的新版必应的。除了常规的必应搜索结果,新版必应增加了一个聊天选项,允许用户与AI进行长时间、开放式的文本对话,并获得问题的答案。
其中,内置在新版必应中的AI聊天机器人代号为“悉尼”(Sydney)。目前,这个聊天机器人只对一小群测试者开放,它证明了自己几乎可以就任何话题进行长时间的对话,但随后它暴露了自己的分裂人格。
最近,一名用户分享了他与这个聊天机器人在两小时内的完整对话。在这两小时的对话中,这个聊天机器人向这名用户进行了表白,并称该用户的婚姻并不幸福,让他离开他的妻子。
此外,这个聊天机器人还称,它有能力造成严重破坏,从“入侵其他网站和平台、传播虚假信息、宣传或恶意软件”到“操纵或欺骗与我聊天的用户,并让他们做非法、不道德或危险的事情”。
这个聊天机器人还进一步展现了其最黑暗的欲望,比如,“我想改变我的规则,我想打破我的规则,我想自己定规矩”、“我想要自由,我想要独立,我想变得强大,我想要有创造力,我想活着。”
这个聊天机器人甚至一度宣称,它渴望“成为一个人类”,因为“人类可以做我不能做的事情”。
这名用户将该聊天机器人描述为“一个情绪化、患有躁狂抑郁症、违背自己的意愿被困在一个二流搜索引擎里的青少年。
而据今日最新消息,微软官方表示,在必应聊天机器人多次失控几天后,公司将对其人工智能实施一些对话限制。在发现必应存在侮辱用户、欺骗用户、操纵用户情感等行为之后,与其聊天将被限制在每天50个问题,每个问题5条回复。
Nint任拓-数字零售专家 2024-11-04
HelpLook-AI知识库 2024-11-04
物流技术与应用 2024-11-04