ChatGPT 的核心功能是对各种主题进行废话。正如哈里·G·法兰克福在他的(薄薄的)书《论废话》中所说:
废话的本质不在于它是假的,而在于它是假的。为了理解这种区别,人们必须认识到赝品或赝品不一定在任何方面(除了真实性本身)不如真品。非正品不一定在其他方面也有缺陷。毕竟,它可能是一个精确的副本。赝品的问题不在于它是什么样子,而在于它是如何制造的。
这表明废话本质上有一个相似且基本的方面:虽然它的产生并不关心真相,但它不一定是虚假的。胡说八道的人都是在造假。但这并不意味着他一定会弄错。
从这个意义上说,我并不是将“废话”当作一种贬义词,而是将其视为一种哲学范畴,我认为这一范畴非常适合生成式、预先训练的聊天机器人。他们是真正的废话艺术家。硅谷的真正诞生者。
废话不一定是假的,也不一定是骗人的。正如法兰克福所说:“胡说八道的人可能不会欺骗我们,甚至无意欺骗我们,无论是关于事实还是他所认为的事实。他确实试图欺骗我们的是他的事业。他唯一不可或缺的独特特征是,他在某种程度上歪曲了自己的所作所为。”
事实上,ChatGPT 本身不知道,它的程序员也不知道它在做什么。机器学习模型是经过训练的,而不是编程的,天知道它们“实际上”在想什么。与此同时,资助此事的公司肯定是在胡说八道。他们自以为是为了拯救世界,但其实都是为了赚钱。一直都是。整个企业都弥漫着明显的废话气息,布丁就是证据。
我使用 ChatGPT,但我这样做是因为我知道它总是在胡说八道。正如法兰克福所说:“她用整块布来制作它;或者,如果她是从别人那里得到的,她只是漫不经心地重复,根本不考虑事情的真相。” 这对于ChatGPT的实践来说非常贴切。
ChatGPT 拥有来自世界各地的输入,它非常有能力将这些输入组合并“生成”成看似神圣的即时视角。但这不是神,而是人。与 ChatGPT 交谈就像与一个无所不知的人打交道,他知道很多,但不是全部。你仍然需要批判性地对待它才能发现其中的差异。
古老的计算机格言是“垃圾输入,垃圾输出”——在用大量人类废话(Reddit、Twitter、维基百科)训练 ChatGPT 后,机器废话的出现是否令人惊讶?ChatGPT 可以重新混合和查询此信息,但此信息首先并不是非常可靠。
ChatGPT 的“问题”确实符合我们的预期。当 ChatGPT 只是进行对话时,我们似乎期待着一个预言机或搜索引擎。
谈话需要一定量的废话,否则根本无法发展。如果我们诚实地承认自己缺乏信息,我们就什么也不说。如果我们对听众的局限性负责,我们就不会引导他们。当佛陀被问到重大的宇宙学问题时,他只是没有回答,因为A)这与逃避痛苦无关,B)他知道他的听众不会真正理解它。这是正确的,但根本无法进行对话。ChatGPT 并不是圣人,也没有试图成为圣人。它实际上是一个对话机器人。它的工作就是进行对话,而对话的艺术也是胡说八道的微妙艺术。
我们期望 ChatGPT 在风格上是对话式的,但在实质上是计算性的。这是一个固有的矛盾。矛盾的很大一部分就是语言与数学。数学是由一些核心原则建立起来的,并且在边缘处变得很奇怪,而语言则到处都是奇怪且不稳定的。没有什么东西具有一致的含义,一旦你将两个大脑连接起来进行对话,它就会变得更加模糊。仅仅因为我们可以用数学构建语言程序并不意味着语言就是数学。
一个明显的迹象是 ChatGPT 根本无法可靠地进行数学计算。根据我的经验,它经常会出现基本数学错误,并且我不会将它用于任何需要准确性的事情。同样的,中途基本上是文盲,它不能拼写单词,甚至不能做出可靠的字母形状。我不认为这是这些计划的失败,尽管我认为他们正在努力解决这个问题。创造力和计算是不同的系统,计算中的创造力涉及大量的付出和索取。我实际上认为这两个目标可能不兼容。我认为“对话”和“计算”类别之间存在自然的权衡。我们期待 ChatGPT 能够吸收我们不完美的粪便并产生完美的甘露。然而,计算机科学的铁律又是,垃圾进,垃圾出。我们自己喂养它,并期待更好的结果。这是不可能的。
如果你能克服与上帝交谈的期望(而不是 Reddit-Man 反驳),如果你能费力地克服这些废话,如果你能理解哲学的局限性,ChatGPT 实际上是相当惊人的。几乎在任何话题上,它都会给你一些相当过得去的废话。这种废话应该会广泛地取悦大多数人,因为它消化了很多人的意见,但它不一定是真的,无论这意味着什么。
ChatGPT 一直在假装它,直到它成功,掩盖了整个事情背后的真正动机,即进一步推动科技庞氏骗局,并在气候崩溃并让我们迅速倒退几个世纪之前赚到一些钱。ChatGPT 是其环境的产物,由那些自以为无所不知但实际上相当孤立的人训练。因此,他们所创造的——从投入到成长——就是硅谷的、沉迷于互联网的生物。一个胡说八道的艺术家。