你会害怕ChatGPT吗?害怕你或你的孩子很快就会被AI淘汰?我来降低一下你的焦虑。
在ChatGPT及其后继者的时代,我们还能够做什么?为了探索这个问题的答案,我建议大家做一个思维实验。如果你有机会让你的孩子“变得”像ChatGPT一样,会怎么样?假如在一个特殊的房间里睡了一晚之后,你的孩子出来的时候看上去和以前一样,但是孩子的脑子已经被“编程”过,ChatGPT知道的所有事实都已经塞到他们脑子里了。这是你想要的吗?
我的答案是:不,我不要。理由如下:
确实,ChatGPT非常厉害,厉害到许多过去值得学习的东西现在似乎变得没那么有价值了。然而,有些其他的技能和能力将会变得越来越重要,尽管你一时可能想不起它们。
图 | pixabay
先从功利主义的角度来看看:未来的就业市场会重视哪些技能?
更容易说出未来就业市场不重视什么——恰恰是ChatGPT所拥有的那种百科全书式的知识。原因很简单,在未来,每个人都会有自己的个人设备——手机或者其他在未来取代它的小工具——装载着相同的知识库。那种感觉就像是,想想曾经非常有价值的射箭技能后来怎样了?在人类不再依靠射箭来打猎或打仗之后,就很少有人去练习并掌握这项技能了。当然,像奥运冠军那样擅长射箭的人还是有的,但总体来说,射箭已经从实用性技能转变为娱乐性技巧。
像这样曾经必不可少、现在已成为小众爱好的技能,我们还能列出长长的清单:马术、尺规作图、通过观星来导航、手写信件、钻木取火、纺纱织布……
它们都有一个共同点:高度专业化,其重要程度依赖于很具体的情境。在不久的将来,我们的孩子在学校里学到的许多知识也会变得类似——它们是很有趣的,但不太有实际用处。
图 | pixabay
那么什么是有用的呢?与人类合作,为人类工作。为此,以人为本的技能将是必不可少的。
在一个充斥着ChatGPT和人工智能的世界里,以人为本的通用技能将变得更加重要。这似乎有违直觉。但这正是过去技术革命中发生的情况。两百年前的人们很难想象、更难以相信一个能有这么多律师、教师、艺术家和网红的世界。这些职业的重点不在生产的技术方面,而在于与其他人的交流和互动。这一轮技术革命也将产生同样的效果。
图 | pixabay
事实上,技术越复杂,需要的人力管理就越多。下面是一些例子:
1.用户体验。只要机器不像末日电影里那样上演毁灭人类的革命(我认为不会),它们的输出就会是为我们人类而创造。我们需要告诉未来版本的ChatGPT,我们想得到什么,我们想要如何得到。
2.使用限制。什么时候可以使用机器?现在已经有很多困难的案例: 学生可以用ChatGPT写作业吗?当艺术家用人工智能创作一件艺术作品时,谁是真正的作者?使用ChatGPT进行心理咨询,是可以接受的吗?
3.权责分配。机器生成的作品产生收益时,谁有权收钱?机器生成的产品导致了一场事故,在经济上和道德上又该由谁对此负责?以上一段里的例子而言,人工智能生成的艺术作品获奖时,奖项应该颁给谁?如果ChatGPT的咨询对病人造成了伤害,谁应该为此负责?
4.使用目标。我们希望通过技术实现什么目标?以设置公路的限速为例,限速越高,车速就越快,越能节省时间,同时事故也会变多。有人可能会认为人工智能将为我们设置最佳限速。但“什么是最佳”并不是早已注定的客观存在,“最佳”取决于我们的价值观和偏好。即使拥有最好的人工智能,目标最终还是由我们人类来决定。
5.协商谈判。以上所有问题,都需要不断地与其他人类进行协商。我们沟通和说服他人的能力,将变得越来越重要。
未来的许多工作、或许是大多数工作,都将致力于解决这些问题,还有一些目前难以想象的问题和任务。但它们都拥有共同的人文因素。
图 | pixabay
在最近的一次晚宴上,一位来自普林斯顿的物理学家朋友尼马·阿卡尼-哈米德(Nima Arkani-Hamed)教授说,每一位物理学家(或者想成为物理学家的人)都应该读读爱因斯坦的笔记。不是因为爱因斯坦的笔记会给你更多的事实,而是因为爱因斯坦的笔记充满了错误的想法。阿卡尼-哈米德认为,从爱因斯坦那里看到错误的东西,可以启发一个人如何作为一个物理学家好好思考。
让我重复一下:从错误的想法中,我们能学会更好地思考!
在科学界,爱因斯坦的笔记是个反常的异数。大多数科学家不会自豪地记录他们错误的想法,即使他们记录了,错误的想法也不太可能被发表。事实上,科学界里发出来的大多数东西都是优雅的、正确的、成功的。
ChatGPT(以及任何大型语言模型)的工作原理,是通过统计积累已发布的材料。它通常可以访问光鲜亮丽的最终产物,而不是错误百出的潦草过程。但这也使它们失去了“全过程”的好处。当错误的想法和失败的实验不可见时,统计推断就会受到负面影响。
想象一下,一个公司的管理者通读过所有的 MBA 课程教科书,但从未真正管理过任何项目。你会相信他吗?我不信。遇到困难、尝试解决、遭遇失败,这样的经历是一个成功的CEO的必备特质。
图 | pixabay
当你需要面对与过去截然不同的反常事件和问题时,从差错和失误中形成的知识就变得特别有用。如果你仅仅依靠统计数据,你的结论就不能预测不寻常的新事件。只有通过一个学习的过程,而不是立即到达“已知”,你才能形成预期意外的洞察力。
与此相关的一点是,并不总是“多多益善”。我们说某种菜肴是精致的,并不是因为它使用了更多的原料和香料。最好的化妆品也不会在脸上用尽所有颜色。你的书法并不会“大力出奇迹”。事实上,许多好东西之所以好,是因为它们恰到好处地保持了平衡:不太多,也不太少。要发明新的好玩意,你不需要什么都知道。
同理,了解所有的事实并不保证你能创造出好的东西。我并不是说人工智能无法生产出创造性的作品——它当然可以。但是人类带着自身所有的局限性——有时正因为其局限性——也能够创造出许多令人惊叹的作品。没有理由放弃这种已被证明的能力;相反,我们应该培养它。何时停止?如何选择?如何平衡?这种敏感性来自于学习的过程,而不是学习的结果。
你是否曾读一本书读到一半,实在读不懂,最后认为自己一定是太愚蠢了才读不懂这本书?我的学生告诉我,她过去常常这样看待那些她看不完的书。这样的情况持续到她自己需要写论文为止。在这个过程中,她学会了如何成为一个好作者。直到那时,她才意识到,一本书很难读懂,可能仅仅是因为作者写得不好!通过学习如何写作,她学会了鉴赏好的写作。
我认为很多事情都是如此: 如果你不经历学习的过程,不经历从 “无知”到“知道”的艰难转变,你将很难鉴赏“什么是好的”。像ChatGPT这样无所不知的系统充其量只能做出区分——分辨什么是好的,什么是不好的。它可以通过模仿现有的判断来做到这一点。但是谁首先给ChatGPT输入判断呢?这依然将是(或应该是)由人类完成的。
但是,“能够区分”远不及“能够鉴赏”:后者拥有对质量的直觉和感受。举个例子: 我喜欢喝茶又住在中国,我试图了解关于中国茶的一切。我收集中国茶,买了很多不同种类的茶,还买了关于不同种类中国茶的书籍。正因如此,我可以根据一些标准来区分不同的茶,茶的名字、形状、颜色,最简单的就是根据价格来区分——贵的茶可能最好。
但我做不到“正确地鉴赏中国茶”,给我一杯茶,我喝下后,并不能正确判断它的价值。有一些我认为好滋味的茶叶其实很便宜;有些茶叶我不喜欢,后来有人告诉我每斤要5000元以上!我能够根据自己知道的事实进行分辨,但我仍然不能“鉴赏”。
图 | pixabay
为什么我们要能够鉴赏“上品”?为了快乐。和我不同,这篇文章的读者里,有人能够品尝一杯好茶并从中获得快乐,因为你能够鉴赏它的妙处。我能从阅读一篇好文章中获得乐趣,无论那是小说还是学术论文。一些读者可能从观赏京剧中获得乐趣,另一些则从下一盘好棋中获得乐趣。
这突出了享受的重要性:就围棋而言,人工智能可以轻易击败最好的人类玩家,但我们仍然会下围棋并享受它。事实上,我可以向你保证,如果你的大脑突然对围棋无所不知,你将失去下围棋的所有乐趣。
需要说明的是,ChatGPT不需要懂得鉴赏,它现在的样子已经足够运作良好。但是对于我们人类来说,如果没有鉴赏能力,我们的生活将变得枯燥无趣——所有的茶尝起来都差不多,所有的文字仅仅是信息的载体。
如上所述,即使未来的实验室提供给我们的孩子一个类似于ChatGPT的知识库,我也会拒绝。
我拒绝一夜之间成为ChatGPT的理由,在当下是实际的,从长期来看也是合理的。无论未来的ChatGPT20多么令人惊叹,这些理由依然不会改变。只要你知道如何管理人类,你就会一直有工作。你能获得很好的洞察力,即使你有局限,有时可能正是因为你有局限。而且你永远不会想要放弃鉴赏的快乐。我们有充分的理由让我们的孩子学习,并经历完整的学习过程。
图 | pixabay
如果你希望使用ChatGPT来帮助自家孩子学习,该怎么做呢?
对此,我有两个想法。
首先,我认为我们需要提出更好的问题,来检验孩子们的学习。如果我们出的问题能被ChatGPT完美回答,那么我认为应该重新评估这些问题,因为学习那些材料是没有意义的。
说到这个话题,最近有人测试了ChatGPT4在2022年北京高考中的表现,发现在生物科目中,ChatGPT4得到了满分 。这说明对我们的孩子来说,生物高考卷出得不够好。在这方面,我们最近让ChatGPT3做我们在清华大学的课堂作业,它的成绩不太好。
其次,我们可以用ChatGPT收集已知的事实,这可以提升我们的学习。比如,在我学习中国茶的过程中,我可以让ChatGPT告诉我西南和华南地区生产的所有茶叶的名字和价格。
一旦掌握了这些资料,我就可以系统地培养自己的鉴赏力,比如连着品尝两杯这些产地的高价佳茗。用这种方式,ChatGPT就像是一个提供有用信息的助理,而我们会决定如何尽可能地使用它,以获得最佳学习效果——无论是为了品茶,还是为了设定道路限速。
可能要过很长时间,我才能成为中国茶的鉴赏家。但这个过程本身是令人愉快的。我永远不会为了成为一个无所不知的ChatGPT,而拒绝经历这段过程。“更多”有时候不一定“更好”。
本文来自微信公众号“果壳”(ID:Guokr42),作者:Stella Christie、Bartlomiej Czech,编译:游识猷,原标题《清华教授:AI无法替代的人类优势,你的孩子掌握了几个?》,36氪经授权发布。