·“能通过很少的情报推理出很多结论,这就是聪明人。而ChatGPT获得了很多情报却只能鹦鹉学舌。学术界如果习惯了ChatGPT这种快速简洁的回答,爱因斯坦这种需要慧眼才能发掘的、对人类产生重大影响的发现,很可能会被掩盖住。”
·“在肯尼亚数据标注员的工作中,ChatGPT会有政治正确的内在训导,比如对平权意识、种族问题、性别问题等,它都会有一套符合美国政治标准的处理方案,并不是一个纯粹全球性的东西。”
2月15日,复旦管院科创办针对最近大火的ChatGPT举办了一场科创思辨会,右1为复旦大学哲学学院教授徐英瑾。
2月15日,在上海张江人工智能岛,复旦大学管理学院科创办针对最近大火的ChatGPT举办了一场科创思辨会,联合学者、科学家和企业家展开了一场头脑风暴。参加此次圆桌论坛的专家学者和校友普遍认为,ChatGPT写文章,写代码和翻译的功力引发全世界关注,但不能像搜索引擎一样提供准确的信息成了它最大的短板。复旦大学哲学学院教授徐英瑾在会上表示,“生成式人工智能”ChatGPT展现出了强大的聊天和交互能力,但ChatGPT与人类的思维方式不同,不会产生人类的独创性和进步性。他还担忧,ChatGPT总是给出快速简洁的回答,可能会让人们忽略学术界潜在的重大发现。
作为一名哲学系教授,徐英瑾近年来对于人工智能非常关注,他对元宇宙、通用人工智能的哲学思考引发了舆论关注。
在徐英瑾看来,ChatGPT代表的计算机和人类真实思维方式非常不同,因此它生产的内容只能达到一般人类的平均水平。“人类的真实思维方式是基于小数据而不是大数据。婴儿只通过很少的语料就可以掌握一门语言的日常对话,并且学会简单的语法后就会自由组合和创新,而ChatGPT需要经过大量语料的学习。”徐英瑾介绍,“能通过很少的情报推理出很多结论,这就是聪明人。而ChatGPT获得了很多情报却只能鹦鹉学舌。”
对此,徐英瑾表示,“从这种意义上说,我始终认为无论ChatGPT或深度学习、或者是现在所有的主流的基于数据训练的人工智能,它只能够变成一般人的意见,加一个平均统计化、持续化处理的机器,它永远不可能达到智能的标准,也就是所谓的创造性、独创性和进步性。”
徐英瑾介绍,不同的人应用搜索引擎产生的效果不同,人类在使用搜索引擎时要对自己搜索的结果负责,所以搜索技巧好的人很快能搜到需要的信息,搜索技巧差的人则不能,从中可以看出不同人之间能力的差别。他表示,“精英体制在搜索引擎的时代没有被真正动摇,但一旦到了ChatGPT时代,专家的工作却被肯尼亚的数据标注工替代。”
此外,徐英瑾还认为,当今世界中,文化、风土和政治因素在人工智能当中影响已经变得越来越明显。
“ChatGPT是美国公司,在肯尼亚数据标注员的工作中,会有政治正确的内在训导。”徐英瑾表示,“比如对平权意识、种族问题、性别问题等,它都会有一套符合美国政治标准的处理方案,所以它本身是训规美国意识形态的一个意识形态生成器,并不是一个纯粹全球性的东西。”
除了政治见解的规训之外,徐英瑾还担心,ChatGPT可能会掩盖住学术界的重大发现。
“极少数精英被接受的过程,其实也要靠其他精英的认可。”徐英瑾以爱因斯坦为例介绍称,爱因斯坦的相对论被诺贝尔奖评审所认可和接受,经历了十分漫长的讨论和研究,诺贝尔奖一开始不肯颁发给他,因为认为它实验证据不足。相对论被接受的过程包含了众多专家学者细腻和大量的投入。
“我担心的是,学术界如果习惯了ChatGPT这种快速简洁的回答,爱因斯坦这种需要慧眼才能发掘的、对人类产生重大影响的发现,很可能会被掩盖住。”徐英瑾表示。“比如学生像老师提问,老师不会直接给答案,而是给学生参考阅读书目。现在ChatGPT是直接给答案,但有学术价值的是参考书目。为了学术界发展,ChatGPT需要改版,所有的答案都要给出处。”