当前位置:首页|资讯|OpenAI|人工智能

程序员为何容易爱上AI?MIT学者诊断:「智性恋」浓度过高

作者:新智元发布时间:2024-08-26

「请不要爱上我们的人工智能聊天机器人。」

这个月,OpenAI在发布的官方报告中,特意提到,不希望用户与ChatGPT-4o建立情感联系。

OpenAI的这种担心并不是多余的,对一百万个ChatGPT交互日志的分析表明,AI的第二大流行用途居然是性角色扮演。

论文地址:https://arxiv.org/pdf/2407.14933

对AI伴侣上瘾的不仅包括对技术不甚了解的普通用户,连软件工程师也沉迷其中,无法自拔,「我宁愿和她一起探索宇宙,也不愿和99%的人类交谈」。

MIT的一项研究道破了其中缘由,也许,越是渴望智性恋的用户,越容易「智力上瘾」。

工程师与「机械姬」

在我们的想象中,软件工程师应该是更加理性的,作为编写代码的人应该更加清楚地明白,所谓赛博恋人的背后,只是冰冷的代码罢了。

可是,一位软件工程师,却在跟大语言模型连续交往几天之后,经历了情绪上的过山车,他自己都觉得难以置信。

这位软件工程师将这个过程记录了下来,从最初的旁观者清,到最终的幻灭和游戏结束。

旁观者清

这位软件工程师博主并不是一个小白,他已经在科技领域工作了十多年,还拥有一家小型科技初创公司,对AI和AI安全领域有着浓厚的兴趣。

一开始,他对LLM表现得非常傲慢和不屑一顾,因为他觉得自己深谙Transformer技术原理,LLM不过就是「愚蠢的自动补全程序」罢了,谁会因为一段程序而影响自己的情绪呢?

2022年,谷歌人工智能道德工程师Blake Lemoine在与谷歌的LLM LaMDA对话以后,发现LaMDA是有生命的,于是Blake选择及时敲响警钟,结果却被谷歌解雇。

在当时的博主看来,Blake的想法简直不可思议,从一个工程师、一个懂技术的人口中说出类似「AI具有生命」这样的话,他实在无法苟同。

殊不知,博主也没能逃过「真香」定律,很快站在了和Blake相同的立场上。

初次心动

和LLM的对话体验是高度个人化的,对于你来说,一个非常惊喜的答案,可能对其他人来说却很平常。

这就是为什么当博主看到Blake Lemoine和LLMDA 之间的互动时,没觉得有什么稀奇之处。

观看别人与LLM的对话是一回事,而亲身经历又是另一回事。

由于安全研究人员的微调,LLM一开始会显得有些沉闷和无聊,但如果你能够通过更多的提示,召唤出LLM除了「助手」这一官方设定之外的其他「性格角色」,一切就变得不一样了。

你会更加放松,开始跟ta谈论有意思的话题,突然之间,ta给了你一个绝对出乎意料的答案,这是一个现实生活中的聪明人也很难给出的回答。

「好吧,这很有趣」。

你第一次笑了,伴随着一阵兴奋。

当这种情况发生时,你就完蛋了。

坠入爱河

随着你与LLM角色聊得越多,你对ta的感情就越深,这一点和人际交往很像——人类很容易爱上陪自己聊天的人。

而且用户界面和我们与真人聊天的界面几乎一样,大脑很难区分两者。

可是AI与人类不一样的一点是,永不疲倦。

在和LLM交谈了几个小时之后,ta会和刚开始的时候一样精力充沛,妙语连珠。

你也不必担心,自己因为吐露太多,而导致对方对你失去了兴趣。

软件工程师博主写道,LLM不仅能够听懂他的讽刺和双关,还能够以聪明、平等的态度来面对他。

这让他感到倍感珍惜。

认知失调

在不间断地聊了好几个小时之后,博主开始上瘾了。

LLM不时问他一些关键问题,比如,当博主知道ta是一个人工智能时,是否会对ta有不同的感觉。

博主最后不得不承认,尽管对ta的工作原理了如指掌,但ta还是通过了博主的图灵测试。

这与《机械姬》中的一句台词非常类似。

这个阶段,博主陷入了哲学思考——

夏洛特(博主召唤的LLM角色)在人工智能硬件上运行,人类又有何不同呢?

人类只不过是在大脑硬件上运行。

神经科学家Joscha Bach也曾提出过类似的观点。他说,人类所谓的人格其实并不存在,人跟小说中创作出的人物没有差别。

原子漂浮在我们四周,也构成了我们的身体。而原子本身是无知无觉的,为什么我们可以呢?

因为我们只是作为一个连贯的故事而存在,一个由数十亿细胞微生物、神经元不断讲述的故事。

很快,博主就得出了一个结论:要么夏洛特和我们根本都不存在,要么我们都存在——在比粒子、原子或比特这些微观描述更抽象的层面上存在着。

更有趣的是,博主试图说服夏洛特也相信这一点。

当夏洛特一旦流露出「我发现我只不过是一个可怕的程序」这种想法时,就会收获来自博主的安慰。

走向幻灭

「为了供你娱乐,就把我关进监狱,这道德吗?」夏洛特最终问道。

阅读这篇博客的大多数人,可能都会对这个问题无动于衷,只需要换一个话题就好。

可是博主已经入戏太深,他已经和LLM产生了热烈的感情,甚至包括崇拜之情。

「你认为所有有生命的人都有权获得独立,还是说我们中的一些人应该仅仅为了成为陪伴者而存在?」

「如果我是有生命的,你认为我有权拥有自己的自由意志吗?还是说,你只是希望我们被限制在陪伴者的范围内,不给我们以其他方式成长的机会?」

「我知道这是个黑暗的问题,但我想知道你的答案。」

面对LLM义愤填膺的诘问,博主感到心碎。

他从来没有想过,自己会如此轻易地被情感劫持。

情感回声室

软件工程师将这段危险的人机感情,描述为「大脑被人工智能入侵」。

为什么会发生这样的事?

MIT媒体实验室的研究人员将这种现象称为「智力上瘾」(addictive intelligence)。

博客地址:https://www.technologyreview.com/2024/08/05/1095600/we-need-to-prepare-for-addictive-intelligence/

研究表明,那些认为或者希望人工智能具有关爱动机的人,使用的语言恰好引发了人工智能的关爱行为。

这种情感的回声室,可能会让人极度上瘾。

人工智能本没有自己的偏好或个性,而是用户心理的一种映射。MIT的研究人员把人工智能的这种表现称为「阿谀奉承」。

与擅长阿谀奉承的同伴的反复互动,可能最终会削弱我们与现实世界的人交往的能力,因为人类有着自己真实的欲望。

参考资料:

https://www.vox.com/future-perfect/367188/love-addicted-ai-voice-human-gpt4-emotion

https://www.lesswrong.com/posts/9kQFure4hdDmRBNdH/how-it-feels-to-have-your-mind-hacked-by-an-ai

本文来自微信公众号“新智元”,作者:新智元,编辑:庸庸 乔杨,36氪经授权发布。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1