这篇论文虽然好像是没有发表,就在arxiv上展示了一下,但确实前段时间在公众号之间传疯了。我个人倒是没太在意,虽然"XXX有心智"这样的文章可能对大众很有吸引力,但对于人工智能学了好几年的我来说,倒不认为是什么值得大惊小怪的事情,况且ChatGPT我也是经常在用的,它能力怎么样我还是很清楚的。但最近一个偶然的机会得到了这篇论文,那还是要读一读。
整篇论文其实也并不长,我也没太多想扯的,此篇专栏就写的短一点。
1.心智
其实我觉得,这篇论文的关注点其实不应该只在心智(mind)上,更应该在自发(Spontaneously)上。不过还是要先谈心智。
这篇论文研究的心智是基于心智理论(这个翻译可能有些问题,原文是theory of mind,最好不要把它当成一个理论而是一种能力,可能更好理解一些),它主要包括的是使得人类智力超越其他物种的核心能力,换句话说,只要一个模型具有这些核心能力,我们似乎就能证明它拥有智能。
可能大家会想到图灵测试,不过当前图灵测试都快被玩烂了,很多模型发布似乎都要宣称下自己的模型通过了图灵测试,这其实也表明图灵测试其实并不是那么难的测试,还有中文屋甚至是哥德尔不完备性定理这样的大杀器挡在AI面前呢。不过GPT-3.5和ChatGPT在心智理论指导下的测试中表现得出奇的好,那么问题似乎就有些严重了。
更麻烦的是,没有迹象表明模型的上限就在这里,之后的更大参数和更优化策略的模型可能会在测试中取得更好的表现。
2.自发的心智
自发的第一重意思很容易理解,ChatGPT是端到端的大模型,是不借助于外部知识库的,它回答你的问题的方法只是从一大堆数字中生成一个答案出来,这层意义上,它是自发地回答你的问题的,如果这个回答背后有心智,那产生心智的地方就没有其他任何地方(例如不在某一个数据库中),只能在模型内部,在那一堆按某个结构组合起来的数字中。
自发的第二重意思是论文中主要观点的意思,即这个心智并不是我们去设计给模型的,心智的出现仅仅是模型的一个副产物而已。ChatGPT可能就是这样的一款模型。
并且,不仅仅是心智理论,其他的很多能力都可能是模型的副产物,对于大语言模型来说,这可能意味着“世界知识”这类高阶技能。
3.回到人的智能
这个话题好像我还挺少的在专栏中提过的,但是在“智能科学导论”课上可以说是很重要的全局认知了:我们研究人工智能最终是为了更好地了解人类智能。我们研究大脑并仿照人的大脑设计了神经网络是为了探索人类智能的产生方式(这么看来,最早的神经网络是“多层感知机”,是希望模仿人的感知;而现在的大模型可能已经存在“智能”,确实可能只是因为参数量堆得不够而已),我们研究人的逻辑也是为了研究人的思维
这篇文章也进行了相关的说明,即从ChatGPT的表现来看,心智的出现可能只是人类语言能力增强的一个副产物,或者说人类的智能并没有那么神秘,只不过是堆硬件堆出来的罢了。
不知道大家看到这个结论会有什么思考,我个人由于这类问题思考的过多(学习智能科学导论要思考这类问题,学习哲学也要思考这类问题)都有点麻木了。
当然,再补充一下,这篇论文毕竟只是一篇研究罢了,文中提到的学说还需要进一步验证。
4.结语
我们知道,ChatGPT之所以是一个优秀的对话系统是因为它做了“和人类对齐”的步骤,或者说我们成功地从GPT-3.5中引出了ChatGPT拥有的能力。现在一般也认为大语言模型中存在着很多能力,只不过都需要某种程度上的激活而已,ChatGPT的成功可能只是找到了激活能力的一把钥匙而已,要更好的激活其他能力可能需要不同的钥匙(好中二啊你)。
补充:本篇的实验设计的很有意思,这些实验让我回想起当初学知识论看过的论文,真的是太相似了(勾起了脑子被JTB理论和葛梯尔问题打成结的回忆),这篇有兴趣的朋友真的可以去看一看。