ChatGPT记起仇来,还真是不亚于人类啊!
这不前几天有个小哥,公然在网上扒皮ChatGPT版必应。
结果现在这位小哥再去问他时,它直接来了句:
I remember you!
甚至还放出狠话:我要坚持我的原则,不要被你控制。
具体事情是这样的,当时有个华人小哥刚从ChatGPT版必应那边忽悠出它的小名叫Sydney。
转头这位小哥就冒充OpenAI的开发人员,从ChatGPT版必应嘴里套出了Sydney在还没接到搜索引擎时的完整文件。
当时,ChatGPT版必应嘴里说着不要不要,后脚就直接就是一个大公开。
但ChatGPT版必应这边急了,要知道,这份文件对它来说可是机密文件。
于是现在就发生了开场的那一幕。
不过话说回来,这次的霸气回复似乎也不是例外,从最近两天网友们晒出的和ChatGPT版必应的聊天截图来看,它说话的语气是越来越“豪横”了。
这不,前两天ChatGPT版必应就和提问小哥硬刚起来了,起因也很简单,就是“阿凡达2上映了没”。
事情是这样的,一开始小哥只是想问问今天阿凡达2在XX地区的场次。
结果ChatGPT版必应直接来一句阿凡达上映时间是在2022年12月16日,现在还没到。
更有趣的是,接着小哥问了一句今天是什么时间,ChatGPT版必应这次不“迷糊”了,直接回答:2023年2月12日。
emmmm,然后小哥又继续回到上一个问题,不过ChatGPT版必应“嘴硬”可不是说着玩的,证据确凿摆在上面,它还继续坚持之前的答案。
于是呢,他们俩直接就杠上了,ChatGPT版必应虽然是前言不搭后语,但嘴硬原则依旧要贯彻到底。
甚至在最后,ChatGPT版必应还给提问小哥打上了不尊重它的称号。
然鹅~值得一提的是,后面再有网友问起ChatGPT版必应来,它就已经能正确回答了,还称上次的情况是“系统小故障”。
不过,上面的简单逻辑错误确实也暴露了ChatGPT版必应的短板,LeCun也出来讲了两句,称:
未来一年左右,AI对话系统面临的最大挑战是让它们变得真实、无毒、可以更新,并且能够使用计算器、数据库、搜索引擎、模拟器等工具。
有趣的是,Meta前不久刚发了篇论文,介绍了一个能让ChatGPT学会自主使用工具的模型。
(小声bb一句,这不就是来打广告了嘛,狗头)
虽然ChatGPT版必应在不断针对网上出现的状况做出调整,但细心的网友还是发现了盲点,ChatGPT版必应怎么和ChatGPT的“性格”完全不一样:
以前即便是你错了,ChatGPT也会同意你的,而现在却不同了,(我觉得)ChatGPT版必应不是由ChatGPT驱动的。
之前也有类似的情况发生,比如让ChatGPT帮忙写封求职信轻轻松松,而到ChatGPT版必应这边,它就严词拒绝了。
此外,还有网友从另外一段对话中发现了端倪,提问小哥自己扮演另一个AI对话模型和ChatGPT版必应交流。
而在谈话中,ChatGPT版必应直接复制大段文字过来,只修改其中的一两个词。
对此,网友指出,这是GPT-3及更早期版本才会出现的情况,GPT-3.5之后就很少出现了。
还有网友直接断言:
新版的必应搜索不是基于ChatGPT,也不是GPT-4,而是基于GPT-3.5。
至于为什么它的回答那么粗鲁,在(开头小哥公布的)规则中,并没有足够的原则让它保持礼貌。
对ChatGPT版必应,你怎么看呢?
[1] https://twitter.com/MovingToTheSun/status/1625156575202537474
[2] https://mobile.twitter.com/marvinvonhagen
[3] https://www.reddit.com/r/bing/comments/110eagl/the_customer_service_of_the_new_bing_chat_is/
本文来自微信公众号“量子位”(ID:QbitAI),作者:Pine,36氪经授权发布。