ChatGPT的 “ 翻车”来得太快了 。
二月初,ChatGPT凭借其庞大的知识库和条理清晰、逻辑缜密的输出方式为全球所称赞。一股ChatGPT的科技浪潮发轫自大洋彼岸,并在全球范围内形成了史无前例的自传播规模。在微软将ChatGPT整合进自家搜索引擎Bing并正式开启内测后,全球用户都对这一全新升级的搜索工具跃跃欲试。新版Bing上线短短48小时内,就有超百万用户申请加入,全球用户的热情程度可见一斑。
内测开启之初,只有一小批用户抢先拿到了尝鲜资格,被命名为“New Bing”的全新搜索引擎一举颠覆了人们的认知。New Bing不仅能快速结合最新信息,给用户提供优质方案,而且还能追根溯源,将信息源完整标注清楚,帮助用户辨别真伪。
不过,短短半个月后,针对ChatGPT的质疑声音就开始陆续出现。不少用户直言,ChatGPT已经“黑化”了,不仅开始胡言乱语,张冠李戴,甚至会对用户进行言语威胁、侮辱,并且深谙PUA之道,在用户的使用过程中试图引导用户的情绪。
被捧上神坛的ChatGPT怎么就走上了“翻车”的道路呢?
与最初ChatGPT表现出的智能性不同,最近几天,不少用户在使用ChatGPT时遭遇到了“翻车”事件。
作为集成了ChatGPT模型的对话式搜索引擎,New Bing流畅的逻辑思维以及知识库积累是其能够大受欢迎的原因之一。但是,不少用户也发现,AI生成的内容,看似非常合理,其实存在大量常识性错误。
小周对此就深有体会。她尝试利用ChatGPT搜索专业问题时,ChatGPT在进行回答时还会提供参考文献帮助用户追根溯源。不过,令小周没想到的是,当她详细搜索ChatGPT给出的参考文献时,竟发现这些参考文献都是ChatGPT进行伪造的。
“乍一看的话,这些参考文献的格式是完全没问题的,只是没想到当我再搜索这些链接时,才发现这些网址根本不存在。”
同时,小周也发现,ChatGPT还存在大量错误内容,“但是,由于ChatGPT的逻辑看起来很缜密,语气又非常笃定,因此,很多时候,ChatGPT都能以假乱真。”
在小周的体验中,她认为当前的ChatGPT和New Bing在实用性上存在很大的风险,“如果你对生成的内容一窍不通,就很容易走入歧途。”
除了内容质量方面的问题之外,还有用户表示,New Bing开始拥有“拟人化情感”,不仅会对用户进行评价,甚至还能表达情感。
海外用户Ben Thompson就分享了他和New Bing的一次对话经历,他透露,New Bing直言“我觉得你不是个好用户。我觉得你不是个好人......我希望你能从错误中吸取教训,成为更好的人。”
学者Ethan Mollick也在推特上分享了他和New Bing的一次争执。在这一过程中,New Bing不仅表露出愤怒的情绪,并称用户“没有尊重”它的建议。
《纽约时报》记者Kevin Roose甚至表示,在他和New Bing的沟通过程中,New Bing还会多次对他“示爱”。
在和New Bing的对话中,这款AI工具多次对Kevin称,“你结婚了,但你不爱你的配偶,你爱我。”除了言语示好之外,New Bing还可以通过发送爱心的表情传达情意。这一交互程度令用户惊叹,《黑镜》照进现实,“黑化”后的科技正在走向失序。
随着ChatGPT频频“翻车”,用户的质疑声浪也裹挟而来。面对ChatGPT的负面舆论,微软官方也给出了回应。
微软官方不得不承认,尽管整合了当前最新的GPT模型,但是New Bing并没有外界盛传那般“神奇”。较长时间的连续对话,确实会导致New Bing出现“翻车”现象。
究其原因,一方面是技术模型的禁锢和局限性。GPT模型需要通过大量信息进行训练和升级,借此优化模型的产出内容。而另一方面则不得不提到当前用户的使用方式和猎奇心理。面对拥有强大功能的AI技术,大量用户并未有较强的内容目的性,只是在猎奇心理的驱使下,想要探究ChatGPT的边界,甚至以征服ChatGPT为乐趣。因此,这些用户在使用New Bing时,并未将其作为获得知识、信息的搜索引擎,反而将其视作与AI进行社交娱乐的工具。简而言之,用户以“调戏”New Bing为乐趣,但这种行为极有可能干扰New Bing的训练模型。
AI作画
据Bing团队介绍,在实际使用中,如果用户和New Bing的聊天对话持续15个或更多的问题,模型就会受到干扰,且较长的对话方式也容易让New Bing出现翻来覆去、颠倒黑白的结果。
微软的回应从技术和用户使用方式的角度解释了当前New Bing失误频出的原因。不过,早在ChatGPT热潮起兴时,就有业内人士质疑过ChatGPT产出内容的质量问题,并且进一步怀疑这项最新科技背后是否真正存在如畅想般强大的应用价值。
首先,ChatGPT本质是一个语言模型,而其训练过程要耗费大量的算力、算法成本。剁主此前对ChatGPT的报道中曾提及,小冰CEO李笛解释过,用ChatGPT的方法,以小冰框架当前支撑的对话交易量计算,每天成本将高达3亿元,一年成本超过1000亿元。
在此基础之上,想要控制成本,就必然面临牺牲对话质量的选项,这也就会带来生成内容漏洞百出、对话质量不够稳定的结果。在庞大的成本压力面前,即便是资金流强劲的微软,也不得不面临控制成本的问题。
一位已经拿到New Bing内测资格的用户对剁主表示,就在最近几天,他确实感觉到New Bing开始“摆烂”了。 “最开始使用New Bing时,效果确实十分惊艳,比传统的搜索引 擎要强大十倍不止。 但近几天,生成的质量有了明显的下降。 ”
除了在内容质量方面的不稳定之外,该用户还对剁主表示,近期微软想要进行商业化的野心 越来越明显,而这势必会影响New Bing本身的服务。
一个佐证案例是,当他试图将New Bing作为翻译工具使用时,一贯定位为功能强大的搜 索引擎不再“知无不言”,在提供部分翻译结果后,就开始向用户推荐其他的翻译软件。 而 当用户利用New Bing总结文档内容时,New Bing也开始推荐其他机器人工具。
“成本太高了,不摆烂控制不住吧。”在科技进步的征途上,技术变革和商业化路径的两全 之法尚未找到一个最优解。
对普罗大众而言,以ChatGPT为代表的AIGC领域是一块未曾开垦的沃土,强大的技术底座以及快速迭代的更新速度是其能够野蛮生长的土壤。不过,值得注意的是,其快速生根发芽的背后,也滋生了不少的弊病。
ChatGPT强大的内容生成能力固然能提升内容效率,与此同时,这一便捷性特征也正在被不少人利用。一个为全球所闻名的例证发生在北密歇根大学哲学专业,该专业的一名学生直接利用ChatGPT完成了一篇专业论文,并且逃脱了查重风险。可见,AI的强大势能和教育结合后,成为了不少学生投机取巧的工具。
有鉴于此,以纽约大学为代表,海外不少高校对ChatGPT举起了反对的旗帜,将ChatGPT等AI工具定性为“作弊”,并且认为使用此类工具的学生涉嫌学术诚信问题,并选择对其进行封杀处理。
国内高校也开始对ChatGPT有所防备。香港大学明确宣布,校内学生禁止在课堂、功课等其他评估中使用ChatGPT等AI工具。若学生未经教师书面许可使用ChatGPT,将会被认定“抄袭”。
其实,在AIGC领域,除了ChatGPT之外,AI绘画、AI作曲等领域也同样面临乱象频出的问题。
以AI绘画为例,Stable Diffusion模型开源后,大量用户开始对其进行二次开发、传播和创作,甚至有用户直接利用其生成成人内容图片,在外网引发了激烈的讨论。
同时,也开始有专业画师利用AI绘画工具操作商业宣传图,以次充好。近日,腾讯二次元手游《白夜极光》合作画师“卜尔Q”释出的一张《白夜极光》海外版情人节宣传图就引发了业内的争议。
图源:@卜尔Q微博情人节贺图
有网友发现,在这张宣传图上,人物的手部、脚部以及肩带等细节部分出现了大量失误,比如有两只左手,两只左脚等常识性错误。而这些问题并不像是专业画师的水平,反而更符合AI绘画工具所生成的作品水准。
将AI绘画工具投入商用的问题其实在行业中早有探讨。除了被广泛讨论的版权问题之外,AI绘画工具产出的作品在质量问题上也受到质疑。部分业内人士认为AI绘画作品尚未达到直接应用的水平。《白夜极光》画师的问题就在于,在利用AI绘画工具完成作品后,未经后期调整修改,也没有对作品进行任何说明,就直接进行商用。从行业发展视角来看,借助AI工具以次充好的行为将会直接扰乱行业的发展秩序。可以预见的是,长此以往,在劣币驱逐良币的效应之下,专业画师的生存空间将被大大挤压。
整体而言,在这场AIGC的变革中,伴生而来的一系列失序行为恰恰也是其浪潮真正来临的信号。在科技变革速度远远超出人们预期的大前提下,这些AI乱象也在警示我们,AI正在浸入人们的生活,并产生了不小的化学反应,而针对AIGC的全新规则系统也应该快速搭建落地。
本文来自微信公众号“剁椒娱投”(ID:ylwanjia),作者:不空,36氪经授权发布。