当前位置:首页|资讯|生成式AI|教育

生成式AI,是教育领域的救世主吗?

作者:哈佛商业评论发布时间:2024-08-23

广受好评的ChatGPT4发布以来,生成式AI已经被许多人当作了教育领域的救世主。英国教育专家安东尼·塞尔登(Anthony Seldon) 爵士就曾预测,到2027年,AI将在全球范围内取代人类教师。

不过,40多年来探索人类认知的学术研究表明,生成式AI也可能会损害从在线辅导到员工培训的所有层面的学习,原因有三:

同理心

比尔·盖茨和萨尔曼·可汗(Sal Khan)等知识分子认为,ChatGPT和其他基于大语言模型的生成式AI所支持的个性化辅导,将缩小教育中的成绩差距。然而,个性化教学并不是学习的最重要驱动力。在分析了数千项研究数据后,教育研究员约翰·哈蒂(John Hattie)最近的报告表示,具有强烈共鸣的师生关系对学习的影响是个性化学习的2.5倍。

荷尔蒙催产素是共情的基础。当两个人同时连接和释放催产素时,双方的大脑活动开始同步——这个过程被称为“神经耦合”,它不仅会让我们相互学习,还能让人们想法一致。鉴于算法既没有大脑也没有催产素,人类和AI在生物学上无法发展共情关系:同理心的超个人性质阻止了它在数字领域的出现。

这也是在纯数字环境中学习的学生成绩会比在面对面教学环境下学习的学生差,毕业率也低得多的一个重要原因。如果没有同理心,学生就会成为被动的信息接收者,几乎没有动力去克服学习过程中固有的困难。

即使是高技能的人类教师,如果不能与学生培养共情关系,也会不可避免地阻碍学习。这只是对AI的进一步警告,因为它揭示了知识和教育学(大概是数字导师的强项)都不足以实现有效教学。

高阶思维能力

伦敦大学学院教授罗斯·拉金(Rose Larkin)最近指出,由于ChatGPT可以获取和组织起全世界的所有知识,学习者不再需要浪费时间学习“事实”,而是可以专注于高阶思维技能,比如创造性和批判性思维。

遗憾的是,我们所说的“创造性”和“批判性”思维,大多是通过依赖内化知识的潜意识过程发生的。有意识地思考问题时,由于记忆的认知限制,人类只能积极思考非常有限的信息量。

然而,一旦停止有意识地思考问题,我们就会进入一个潜伏期,在这个潜伏期内,我们的大脑会下意识地通过寻找相关想法来整理我们的记忆库。正是在这个整理过程中,我们建立了新联系,并产生了更好的思维。

问题就在这里:潜意识的重新整合只对存储在长期记忆中的信息起作用,这意味着它无法利用外部访问或存储的信息。这就解释了为什么专家在自身专业领域内,几乎总会比新手表现出更强的解决问题的能力,但在专业领域之外却很少表现出来。这也解释了为什么语义痴呆症(患者失去长期记忆,但保持认知能力)对创造力的损害,几乎是额颞叶痴呆症(患者失去认知能力,但保持长期记忆存储)的两倍。

简单来说,用AI帮助学习者避免记忆事实的繁琐过程,会阻碍高阶思维能力的出现。

当然你可能会问,如果我们只是使用AI帮助记忆事实呢?好吧,想想看,教科书一直都是由专家编写的,他们拥有足够深厚的知识,能够恰当地审核信息,并将其组织成有意义的结构化课程。而大语言模型(至少在目前)既没有监督,也没有审查。这意味着,使用AI的学习者很可能会遇到错误、排序奇怪或不相关的信息。对这些信息的记忆很可能会破坏我们掌握知识的途径。

多任务处理

多任务处理会影响学习的准确、速度、记忆的形成,甚至学习乐趣。

一项新冠疫情前的调查显示,美国学生每年使用数字设备进行学习的时间接近200小时。然而,他们使用这些设备在不同媒体间快速跳转的时间,超过2000小时,是使用时间的10倍。其他研究表明,当人们使用计算机指导自己学习时,通常坚持不到6分钟就会被数字设备分心,而当在课堂上使用笔记本电脑时,学生通常每小时会有38分钟的时间是在任务之外。换句话说,学习者用来访问和参与ChatGPT的数字设备本身,已经成为名副其实的多任务机器。

不是电脑不能用于学习,而是它们不是常用的学习工具,所以每当试图将这个功能塞进去时,我们就会在学生和预期结果间设置一个非常大且不必要的障碍,许多人都很难克服这一点。

如何有效学习

不过生成式AI在一个学习领域是有帮助的:认知卸载(cognitive offloading,CO)。这是一个我们使用外部工具来管理“苦力工作”的过程,用于防止这些工作消耗我们的认知能量。

不过正如上面所说,当新手试图卸载记忆和组织工作时,学习就会受到影响,高阶思维能力也会被扼杀,而且由于缺乏深厚的知识和技能积累,他们也无法充分审核输出结果。

经验丰富的学习者或专家可以从认知卸载中受益,比如数学家会用计算器而不是自己算术,活动策划者会使用数字日历安排繁忙的会议日程,或者律师会使用数字索引来按字母顺序排列案卷。这些人都具备必要的知识和技能,可以保证输出更好地符合预期结果。

不过依赖数字技术的风险依然存在。当我们经常卸载某些任务时,我们的相关技能和思维能力也会随之退步。例如,十多年来,我一直使用数字程序进行统计分析。虽然我掌握着审核输出结果的相关知识,但却再也记不起每个统计测试所用的具体方程。因此,除非重拾教科书,否则我现在只能依赖这些程序。

考虑成本

每当我们使用数字工具来放大、加速或规避特定流程的某些方面时,都不可避免地会损失一些东西。或者,用托马斯·索维尔(Thomas Sowell)的话来说,“没有解决方案,只有权衡取舍。”(There are no solutions, only trade-offs.)

有时这种权衡是值得的,比如放弃复杂的方程,在几秒钟而不是几小时内运行统计分析。然而,当我们使用AI补充教育时,失去的正是教育工作本身的精髓:学习。

每当使用一种工具的主要原因被其本身的采用所否定时,我们就有充分的理由质疑,是否还要继续用下去。

杰里德·库尼·霍维斯  (Jared Cooney Horvath)| 文 

本文来自微信公众号“哈佛商业评论”(ID:hbrchinese),作者:HBR-China,36氪经授权发布。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1