胡泳北京大学新闻与传播学院教授
ChatGPT的主要用途是开放式对话,但人们很快就找到了使用它的创造性方法,比如:
- 回答Stack Overflow(程序员问答平台)问题
- 代替谷歌
- 生成烹饪菜谱
- 解决复杂的编程任务
- 为Dall-e/Stable Diffusion生成图像提示信息
- 从头开始构建应用程序和网站
看上去ChatGPT是很有创造力的,然而,重点是ChatGPT并没有为这些用途进行专门优化,也没有考虑到它的通用性。即便如此,在某些特定任务上的结果是相当显著的,这让许多人看到了可能即将到来的东西。也就是说,这些用例虽然不会使ChatGPT扩展成为一个通用的人工智能,但它们可以非常快地在特定的领域或应用中发挥作用。
毫无疑问,新一代的人工智能工具正在风靡全球,这些工具可以帮助你写得更好,编码更快,并大规模地生成独特的图像。如此强大的人工智能工具的出现引出了一个问题:在人工智能创意的时代,成为一个创造者意味着什么?
我倾向于认为,如果类似ChatGPT这样的软件实现了它的宏伟承诺,它可以重新定义人类的认知和创造力。
生成式人工智能对创造力的挑战
人工智能创造力,也可以称为计算创造力,是一个多学科的研究领域,旨在设计能够达到人类水平的创造力的程序。
这个领域并不新鲜。早在19世纪,科学家们就在争论人工创造力是否可能。埃达·洛夫雷斯(Ada Lovelace)提出了可能是对机器智能最著名的反对意见:如果计算机只能做它们被编程的事情,它们的行为怎么能被定义为有创造性呢?在她看来,独立学习是创造力的一个基本特征。
但最近在无监督机器学习方面的进展,确实带来了这样一个问题:一些人工智能软件所表现出的创造力是否仍然是简单执行人类工程师指令的结果?如果埃达目睹人工智能已经能够创造的东西,也许很难不怀疑她最初的想法。随着大型语言模型(LLMs)越来越大,它们开始提供人类水平的、然后是超人的结果。
由此催生了有关人工智能创造力的两派观点。 第一派认为人工智能是增强人类创造力的一种方式——它是人类的创造性的伙伴,可以激发灵感,提出想法,并克服创造性的障碍。而第二派人梦想着人工智能能够模仿人类的创造力,成为一个独立的创造性思维者,能够完全自我制造和产生新颖的创造性工作。
有些人认为,由于聊天机器人只是学习其训练集中的单词之间的统计关联,而不是理解它们的含义,所以LLMs(大型语言模型)永远只能回忆和综合人们已经做过的事情,而不能表现出科学过程中人类的某些方面,比如创造性和概念性思维。但是不是会永远如此?未来的人工智能工具是否能够掌握今天看来遥不可及的科学过程的各个方面?
在1991年的一篇开创性的论文中,研究人员写道,人和智能技术之间的“智能伙伴关系”可以超越人单独的智力能力。这些智能伙伴关系可以将创新加速到以前无法想象的水平。问题是,创造性的增强和创造性的生产之间的界限在哪里?在创造力方面,人工智能可以和应该走多远?如果人工智能可以产生高质量的创作,那么是否还需要人类的创造者?
人工智能无法取代人类创造力
其次,创造力的核心在于以独特和个人的方式表达情感和经验的能力。人工智能算法无法真正理解激发创造力的人类经验和情感。一个人工智能作家将能够拼凑出足够多的人类经历,以讲述一个令人信服的故事,但是读者在知道作者经历了他们所描述的痛苦和快乐时,有一种内在于人性的东西即代入地体验创作者的感受,是机器作家无法带来的。人类创造者给他们的工作带来的个人感受,增加了人工智能算法根本无法比拟的真实性。
许多人工智能研究者在争论是否应该创造出具有情感的机器。在典型的人工智能模型中没有情感,而一些研究者称将情感编程到机器中可以让它们拥有自己的心智。然而,情感可以对人类经验加以总结,因为它使人类能够记住这些经验。耶鲁大学计算机科学家戴维·格勒恩特尔(David Gelernter)写道:“除非能模拟人类情感的所有细微差别,否则任何计算机都不会有创造力。”
人工智能不能取代人类创造力的第四个重要原因,是缺乏想象力和直觉。创造力需要超越现有事物的思考能力和对新的可能性的想象力,而人工智能算法缺乏这种能力。他们无法想出真正独特和原创的概念。正因为人工智能并非真正的创作者,其生成的内容的一大缺点是,它并非完全原创。内容生成器只是在一定的参数范围内收集已经存在的信息。因此,虽然内容将通过抄袭检查,但它不会包括原创研究、见解或数据。在实践中,这意味着它没有能力分享观点或创造思想性内容。
最后,创造力的不可预测性是使其有别于人工智能的另一个因素。创造力可以是不可预测和自发的,涉及灵感的突然闪现、实验和偶然的事件。然而,人工智能算法受到它们所训练的程序和数据的限制,缺乏对新信息作出实时反应的能力,因此它们不可能完全复制人类创造力的不可预知性。
总而言之,生成式人工智能不能替代人类的智慧和洞察力。为了实现真正的原创,生成式人工智能需要由具有领域专业知识和背景经验的人类创造者来指导和培养。通过提供正确的提示,人类创造者可以帮助生成式人工智能充分发挥其潜力,产生令人印象深刻的结果。因此,虽然生成式人工智能是一个非常强大的工具,但它仍然只是一个工具,它需要依靠人类的创造力、专业知识和经验才能真正发挥作用。
人工智能工具的长短板
虽然我们承认人工智能的工具性,问题在于,大多数人都没有什么人工智能素养——对何时以及如何有效使用人工智能工具的理解。我们需要的是一个直接的、通用的框架来评估人工智能工具的优点和缺点,每个人都可以使用。只有这样,公众才能在将这些工具纳入我们的日常生活中做出明智的决定。
为了满足这一需要,我们不妨使用教育领域的一个古老方法:布鲁姆分类法。这个分类法最早发表于1956年,由教育心理学家本杰明·布鲁姆(Benjamin Bloom)提出,后来在2001年进行了修订。它是一个描述思维水平的层次结构,其中更高的水平代表更复杂的思维。它的六个层次是:
1)知识记忆:即承认或记住事实、术语、基本概念或答案,而不必理解其含义。
2)理解:通过解释、分类、总结、推论、比较和阐明来解释主要思想和概念并表达意义。
3)应用:使用知识来解决问题、确定事物之间的联系以及它们在新情况下的应用方式。
4)分析:检查信息并将其分解为组成部分,确定各部分之间的关系,确定动机或原因,进行推断,并找到支持概括的证据。
5)评估:基于一组标准对信息、想法的有效性或工作质量进行判断来提出和捍卫意见。
6)创造:将元素放在一起以形成一个连贯的或功能完整的整体。这是布鲁姆分类法的最高等级。
布鲁姆分类法并不与特定的技术相联系——它广泛适用于认知领域。我们可以用它来评估ChatGPT或其它操纵图像、创造音频或驾驶无人机的人工智能工具的优势和局限性。
一般来说,ChatGPT在记忆、理解和应用任务方面做得很好,但在更复杂的分析、评估和创造任务方面却很困难。比如讲,对医生、律师和顾问的职业未来,用布鲁姆分类法加以观照,我们会发现,人工智能有朝一日可能重塑这些职业,但并不是完全取代。虽然人工智能可能擅长记忆和理解任务,但很少有人向医生咨询自己所患疾病的所有可能症状,或要求律师逐字逐句地讲解法律条文,或聘请顾问解释迈克尔·波特(Michael Porter)的五力理论。
在那些更高层次的认知任务中,我们会求助于专家。我们重视医生在权衡治疗方案的好处和风险时的临床判断,重视律师综合先例并代表我们进行有力辩护的能力,以及顾问找出别人没有想到的开箱即用的解决方案的能力。这些技能属于分析、评估和创造的任务,是人工智能技术目前所不及的认知水平。
使用布鲁姆分类法,我们可以看到,有效的人与人工智能合作,将在很大程度上意味着委托交办较低层次的认知任务,以便我们可以将精力集中在更复杂的认知任务上。因此,与其纠结于人工智能是否能与人类创造者竞争,不如问问人工智能的能力如何被用来帮助培养人类的批判性思维、判断和创造力。
当然,布鲁姆分类法也有自己的局限性。许多复杂的任务涉及分类法的多个层次,使分类的尝试受挫。而且布鲁姆分类法并不直接解决偏见或仇恨问题,这是大规模人工智能应用中的一个主要问题。
但是,尽管不完美,布鲁姆分类法仍然有用。它足够简单,每个人都能掌握;足够通用,适用于广泛的人工智能工具;结构化,足以确保我们对这些工具提出一套一致的、彻底的问题。
就像社交媒体和假新闻的兴起要求我们发展更好的媒体素养一样,ChatGPT等工具要求我们发展我们的人工智能素养。布鲁姆分类法提供了一种思考人工智能能够做什么以及不能做什么的方法,因为这种类型的技术已经嵌入到我们生活的更多部分。
我选择,故我在
有意思的是,生成式人工智能似乎创造了对人类创造力的迫切需求。对于人工智能来说,仅仅随机地想出一些新奇的东西是很容易的。 但要想出一些新颖的、出乎意料的、同时又有用的东西是非常困难的。
然而吊诡之处在于,由于有生成式人工智能可以依赖,人类创造力或许会进入一个低谷。2019年7月,在法国一场国际象棋比赛中,全世界排第53名的国际特级大师伊戈斯·劳西斯(Igors Rausis)被曝比赛中途使用手机,按规则来说已属作弊。人类历史上第一位输给计算机的棋类世界冠军加里·卡斯帕罗夫(Garry Kasparov)引申评论说,虽然在现实生活中使用手机并不是作弊,但你可能会因为过度依赖数字拐杖而出现认知上的缺陷。
他强调,如果我们只依靠机器来告诉我们如何成为优秀的模仿者,我们将永远无法迈出下一步,成为创造性的创新者。与我们的身体类似,我们的大脑也需要锻炼,并通过执行高要求和具有挑战性的认知任务来不断训练,以便出类拔萃,擦出“Aha!”般的洞察力的火花。
不幸的是,一旦我们将认知自主权部分下放给智能机器,再想要把它拿回来将千难万难。这就是为什么,当人类在享受认知的旅程中踩下刹车时,算法和人工智能机器却会以难以置信的速度快速前进,成为创造力的新来源。有些人对我们正以快速增长的速度进入的完全自动化的人工智能未来有一个乌托邦式的愿景,而另一些人则对此怀抱一个歇斯底里的愿景。 在这种情况下,我们每个人都要做出选择:是拥抱这些新的挑战,还是遏制它们。我们是要帮助塑造未来,设定我们与算法和智能机器的关系条款,还是让算法与智能机器强加于我们?
在1976年的精彩著作《计算机能力与人类理性》中,约瑟夫·魏岑鲍姆(Joseph Weizenbaum)认为:“无论机器如何智能,有些思想行为只能由人类来尝试。”他颂扬了判断力、智慧和同情心的重要性——即使我们可以,也不能把这些东西外包给机器。在一个深刻的表述中,他写道,机器可以决定,但它们不会选择。为什么机器会做它所做的事?每一个机械化的决定都可以通过算法一步步追溯,直到最后得出一个不可避免的结论:“因为是你告诉我的。”对人类来说,况并非如此,根本的解释是:“因为我选择了。”在这个简单的短语中,包含着人类的能动性、人类的创造力、人类的责任以及人类本身。
我们已经论证过,我们的技术可以使我们更有人性,让我们自由地发挥更多的创造力,但作为人类,除了创造力,还有更多的东西。我们有机器无法比拟的其他品质。它们有指令,而我们有目的。机器不能做梦,甚至在睡眠模式下也不能。人类可以,而且我们将需要我们的智能机器,以便将我们最伟大的梦想变成现实。正如卡斯帕罗夫所说,如果我们停止做大梦,如果我们停止寻找更大的目标,那么我们自己也可能是机器。
创造力一直被认为是人类中心论的主要支柱之一。除了语言、价值观、情感和知觉以外,如果没有创造力,还有什么能让我们成为人类呢?
胡泳:《在ChatGPT时代,如何养育下一代?》
胡泳:《对于AI大模型,我们真正应该担心什么?》
👇 点个“在看”分享洞见