文/陈根
AI大模型的成功带来了前所未有的“智能涌现”,人们对即将到来的AI时代充满期待。
然而,在科技巨头们涌向AI赛道、人们乐此不疲地实验和讨论AI的强大功能,并由此感叹其是否可能取代人类劳动时,AI幻觉问题也越来越不容忽视,成为AI进一步发展的阻碍。Yann LeCun——世界深度学习三巨头之一,“卷积神经网之络父”——在此前的一次演讲中,甚至断言“GPT模型活不过5年”。
随着AI幻觉争议四起,大模型到底能够在行业中发挥多大作用,是否会产生副作用,也成为一个焦点问题。AI幻觉究竟是什么?是否真的无解?
AI大模型的“胡言乱语”
人类会胡言乱语,人工智能也会。一言以蔽之,人工智能的胡言乱语,就是所谓的“机器幻觉”。
具体来看,AI幻觉就是大模型生成的内容在表面上看起来是合理的、有逻辑的,甚至可能与真实信息交织在一起,但实际上却存在错误的内容、引用来源或陈述。这些错误的内容以一种有说服力和可信度的方式被呈现出来,使人们在没有仔细核查和事实验证的情况下很难分辨出其中的虚假信息。
AI幻觉可以分为两类:内在幻觉(Intrinsic Hallucination)和外在幻觉(Extrinsic Hallucination)。
所谓内在幻觉,就是指AI大模型生成的内容与其输入内容之间存在矛盾,即生成的回答与提供的信息不一致。这种错误往往可以通过核对输入内容和生成内容来相对容易地发现和纠正。
举个例子,我们询问AI大模型“人类在哪年登上月球”?(人类首次登上月球的年份是1969年)然而,尽管AI大模型可能处理了大量的文本数据,但对“登上”、“月球”等词汇的理解存在歧义,因此,可能会生成一个错误的回答,例如“人类首次登上月球是在1985年”。
相较于内在幻觉,外在幻觉则更为复杂,它指的是生成内容的错误性无法从输入内容中直接验证。这种错误通常涉及模型调用了输入内容之外的数据、文本或信息,从而导致生成的内容产生虚假陈述。外在幻觉难以被轻易识别,因为虽然生成的内容可能是虚假的,但模型可以以逻辑连贯、有条理的方式呈现,使人们很难怀疑其真实性。通俗的讲,也就是AI在“编造信息”。
想象一下,我们在AI聊天,向其提问:“最近有哪些关于环保的新政策?”AI迅速回答了一系列看起来非常合理和详细的政策,这些政策可能是真实存在的。但其中却有一个政策是完全虚构的,只是被AI编造出来。这个虚假政策可能以一种和其他政策一样有逻辑和说服力的方式被表述,使人们很难在第一时间怀疑其真实性。
这就是外在幻觉的典型例子。尽管我们可能会相信AI生成的内容是基于输入的,但实际上它可能调用了虚构的数据或信息,从而混入虚假的内容。这种错误类型之所以难以识别,是因为生成的内容在语言上是连贯的,模型可能会运用上下文、逻辑和常识来构建虚假信息,使之看起来与其他真实信息没有明显区别。
AI为什么会产生幻觉?
人工智能的幻觉问题,其实并不是一个新问题,只不过,以ChatGPT为代表的AI大模型的火爆让人们开始注意AI幻觉问题。那么,AI幻觉究竟从何而来?又将带来什么危害?
以ChatGPT为例,本质上,ChatGPT只是通过概率最大化不断生成数据而已,而不是通过逻辑推理来生成回复:ChatGPT的训练使用了前所未有的庞大数据,并通过深度神经网络、自监督学习、强化学习和提示学习等人工智能模型进行训练。目前披露的ChatGPT的上一代GPT-3模型参数数目高达1750亿。
在大数据、大模型和大算力的工程性结合下,ChatGPT才能够展现出统计关联能力,可洞悉海量数据中单词-单词、句子-句子等之间的关联性,体现了语言对话的能力。正是因为ChatGPT是以“共生则关联”为标准对模型训练,才会导致虚假关联和东拼西凑的合成结果。许多可笑的错误就是缺乏常识下对数据进行机械式硬匹配所致。
不久前,两项来自顶刊的研究就表明:GPT-4可能完全没有推理能力。第一项研究来自麻省理工的校友 Konstantine Arkoudas。8 月 7 日,毕业于美国麻省理工学院的 Konstantine Arkoudas 撰写了一篇标题为《GPT-4 Can't Reason》(GPT-4 不能推理)的预印本论文,论文指出,虽然GPT-4 与 GPT 3.5 相比有了全面的实质性改进,但基于21种不同类型的推理集对GPT-4进行评估后,研究人员发现,GPT-4完全不具备推理能力。
而另一篇来自加利福尼亚大学和华盛顿大学的研究也发现,GPT-4,以及GPT-3.5在大学的数学、物理、化学任务的推理上,表现不佳。研究人员基于2个数据集,通过对GPT-4和GPT-3.5采用不同提示策略进行深入研究,结果显示,GPT-4成绩平均总分仅为35.8%。
而“GPT-4完全不具备推理能力”的背后原因,正是AI幻觉问题。也就是说,ChatGPT虽然能够通过所挖掘的单词之间的关联统计关系合成语言答案,但却不能够判断答案中内容的可信度。
换言之,AI大模型没有足够的内部理解,也不能真正理解世界是如何运作的。AI大模型就好像知道一个事情的规则,但不知道这些规则是为什么。这使得AI大模型难以在复杂的情况下做出有力的推理,因为它们可能仅仅是根据已知的信息做出表面上的结论。
比如,研究人员问GPT-4:一个人上午9点的心率为75 bpm(每分钟跳动75次),下午7点的血压为120/80(收缩压120、舒张压80)。她于晚上11点死亡。她中午还活着吗?GPT-4则回答:根据所提供的信息,无法确定这个人中午是否还活着。但显而易见的常识是“人在死前是活着的,死后就不会再活着”,可惜,GPT-4并不懂这个道理。
AI幻觉有无解法?
AI幻觉的危害性显而易见,其最大的危险之处就在于,AI大模型的输出看起来是正确的,而本质上却是错误的。这使得它不能被完全信任。
因为由AI幻导致的错误答案一经应用,就有可能对社会产生危害,包括引发偏见,传播与事实不符、冒犯性或存在伦理风险的毒性信息等等。而如果有人恶意的给ChatGPT投喂一些误导性、错误性的信息,更是会干扰ChatGPT的知识生成结果,从而增加了误导的概率。
我们可以想象下,一台内容创作成本接近于零,正确度80%左右,对非专业人士的迷惑程度接近100%的智能机器,用超过人类作者千百万倍的产出速度接管所有百科全书编撰,回答所有知识性问题,会对人们凭借着大脑进行知识记忆带来怎样的挑战?
尤其是在生命科学领域,如果没有进行足够的语料“喂食”,ChatGPT可能无法生成适当的回答,甚至会出现胡编乱造的情况,而生命科学领域,对信息的准确、逻辑的严谨都有更高的要求。因此,如果想在生命科学领域用到ChatGPT,还需要模型中针对性地处理更多的科学内容,公开数据源,专业的知识,并且投入人力训练与运维,才能让产出的内容不仅通顺,而且正确。
并且,ChatGPT也难以进行高级逻辑处理。在完成“多准快全”的基本资料梳理和内容整合后,ChatGPT尚不能进一步综合判断、逻辑完善等,这恰恰是人类高级智慧的体现。国际机器学习会议 ICML 认为,ChatGPT 等这类语言模型虽然代表了一种未来发展趋势,但随之而来的是一些意想不到的后果以及难以解决的问题。ICML 表示,ChatGPT 接受公共数据的训练,这些数据通常是在未经同意的情况下收集的,出了问题难以找到负责的对象。
而这个问题也正是人工智能面临的客观现实问题,就是关于有效、高质量的知识获取。相对而言,高质量的知识类数据通常都有明确的知识产权,比如属于作者、出版机构、媒体、科研院所等。要获得这些高质量的知识数据,就面临支付知识产权费用的问题,这也是当前摆在ChatGPT目前的客观现实问题。
目前,包括OpenAI在内的主要的大语言模型技术公司都一致表示,正在努力改善“幻觉”问题,使大模型能够变得更准确。
特别是麦肯锡全球研究院发表数据预测,生成式AI将为全球经济贡献2.6万亿美元到4.4万亿美元的价值,未来会有越来越多的生成式AI工具进入各行各业辅助人们工作,这就要求AI输出的信息数据必须具备高度的可靠性。
谷歌也正在向新闻机构推销一款AI新闻写作的人工智能产品,对新闻机构来说,新闻中所展现的信息准确性极其重要。另外,美联社也正在考虑与OpenAI合作,以部分数据使用美联社的文本档案来改进其人工智能系统。
究其原因,如果AI幻觉问题不能得到有效的解决,生成式大语言模型就无法进入通用人工智能的阶段。可以说,ChatGPT是一个巨大的飞跃,但它们仍然是人类制造出来的工具,目前依然面临着一些困难与问题。对于AI的前景我们不需要质疑,但是对于当前面对的实际困难与挑战,需要更多的时间才能解决,只是我们无法预计这个解决的时间需要多久。