我不相信ChatGPT是一个没有政治立场的 "知识机器人"。有些人称它给出的所有答案都是中性的,或趋向于中性,因此是完美的。
一种知识的正确答案,尤其是涉及政治、文化、哲学等社会科学领域,中性其实是一种圆通润滑,说得难听点就是油嘴滑舌。
更重要的是,对一些类似知识的解答或描述是需要有一定的情感基础的。
比如,一个问题如涉及中国文化的深层认知,答者缺乏对中国文化的情感体验,是根本无法准确回答的。而一旦将情感体验加进了答案中,这一回答必然就是有倾向性的。
ChatGPT没有情感,尚不具备人类独有的创造力、思维力、洞察力。但是,在某些技术领域这可能是它的优势,能够达到某种高级别的灵活、精准。在更广泛的社会科学领域,这又会成为它的劣势,是它无法替代人类的关键所在。我甚至怀疑在未来的某一天,它真的会像人那样拥有个性化的经验和情感。因此它给出的所有回答不可能全是“中性的”,或者说对某些人来说足以应对考试,足可以灵活运用或操作一些程序,但对另外一些人来说,则过于幼稚简单,甚至是片面的。
在给予其足够的提示之后,它或许可以写出一两句像狄更斯那样的大作家写过的经典之句,比如,《双城记》的开始:It was the best of times, it was the worst of times, it was the age of wisdom, it was the age of foolishness。
但接下来的话,它是写不出来的。更不要指望它能像狄更斯那样,写出一部完整的,足以影响人类阅读体验和精神世界的经典小说。
不难理解,小说家的经历是个体的,同时又深受时代、文化传统、语言习惯、家庭和宗教以及民族意识的深刻影响。除非ChatGPT也经历了这样一个过程。
当然,没有感情,并不等于它不会学着拥有感情,但这取决于人类将怎样,或者说用什么样的知识和文化来培育、熏陶它。所以从一开始,AI技术就会带有意识形态的“魂”。
在我们刚刚拥有了第二版ChatGPT,讨论这个问题还有点为时过早。毕竟,人类发明这个玩意儿,主要还是为了让它能帮助人来做点事,来拥有一些基本的知识,而不是和人类一样拥有感情,会爱、会恨、能感觉疼痛、忧伤、共鸣和喜悦。
严格地说,它是一个学生,是一个非常善于学习的学生。AI技术的一个基本特征就是具有学习功能,而且学得很快,记忆力远超人类,神童也比不过。
它的优势在于,它能极快地在知识的海洋中找到能回答或解决人类问题的答案。这并不是说有人会故意按照自己的政治立场来教ChatGPT说话、做事;人工智能技术确实有自己的选择能力。但它的选择将取决于它的知识来源,也就是人类将什么样的知识 "装 "进它的库存。
在现实社会中,人是有政治观的,而且政治观会受到感情、经验、教育等方面的影响。正因为如此,ChatGPT对具有政治特征或不同意识形态特征问题的回答从来都不是中立的。它更倾向于,或者说它只能从它的知识库中来选择答案。
我在网上看到过两则ChatGPT的回答。
当ChatGPT被要求对前总统特朗普进行评论时,它礼貌地拒绝了。当被要求评论现任美国总统拜登时,它用了"了不起 "一词,并称他是一位"令人印象非常深刻的总统"。
关于中国的未来,它做出了大体中立的预测,但使用了倾向性的概念,如中国未来"可能会挑战世界秩序",这显然是“模拟”了西方媒体对华政策的表述,更像是在挪用美国总统拜登以及大多数政府官员对中国的评价。
"挑战世界秩序"这个概念对中国来说是不可接受的,也不存在于中国自身有关本国未来发展的“知识库”中。事实上,中国一直都不是这样的挑战者。
正因为“库存”的材料不同,ChatGPT对那些具有政治特色,或者是带有不同意识形态特色问题的回答,就不会是中性的。这些带有政治感情的概念的出现,实际上反映了西方对中国的认知。而ChatGPT之所以会选择这个表述,显然是因为它的知识源中有这样的基本概念,而且这一概念符合西方舆论主流的认知。
这就是我一直在说的现有的社会科学体系中存在的政治概念的局限性。这个体系中存在着大量的由西方经验形成的理论认知、历史认知,当然也带有强烈的西方人的感情体验。这是ChatGPT的主要知识源。非西方的经验和认知仍处于非主流地位,或者是从属地位,甚或旁枝末节。
然而,世界社会科学体系并不是静态的,将随着更多的非西方国家的发展而发展。因此,ChatGPT面临与人类社会知识体系同样的挑战,运用西方的经验和理论来解释或指导非西方的发展往往是不够的,有时甚至是危险的,尤其是当某些人要借助于它所提供的政治治理的准则或方式来解决现实问题。
从这个角度看AI的发展,我们就会意识到,在接下来的技术竞争中,AI的意识形态属性会越来越突出,二者之间的关联也会更为紧密。
(作者丁刚系人民日报高级记者、中国人民大学重阳金融研究院高级研究员。本文转自5月26日“丁刚看世界”微信公众号。欢迎关注人大重阳新浪微博:@人大重阳 ;微信公众号:rdcy2013)