近期,一篇新论文认为,如ChatGPT等系统中所示,人工智能的智慧与人类智慧有着根本上的区别,因为它缺少具体表现与理解。这种差异凸显了人工智能无法体会到人类的忧虑或与世界的联系。
人工智能近些年兴起引起了公众、技术高管、政府官员的多种反应。许多人对ChatGPT等人工智能技术充满了热情,将它们视为有能力变革社会的有益工具。
不过一些人也感到担忧,他们担心任何被描述为“智能”的技术都可能拥有超越人类控制和主宰的能力。
人工智能与人类智能的不同性质
加州大学艺术与科学学院哲学心理学教授Anthony Chemero认为,实际上对人工智能的理解已经被语言学所扰乱:虽然人工智能确实很智能,但人工智能不可能像人类那样的智能,即使“它可以像其制造者一样撒谎”。
Chemero在《自然人类行为》杂志上合著的一篇论文中解释说,根据我们对这个词的日常应用,人工智能绝对是智能的,但多年来它一直存在于智能计算机中。
AI的特点和局限性
首先,这篇论文认为ChatGPT和其他人工智能系统是大型语言模型(LLM),接受过互联网大量数据的训练,其中大部分都沾染了发布数据的人的偏见。
论文作者认为:“LLM会产生令人印象深刻的文本,但通常是纯属虚构的事件。”“他们学着制作语法句子,但需要比人类多得多的训练。实际上他们并不知道他们所说的话是什么意思”“LLM与人类的认知不同,因为它们无法被具体表现出来。”
打造LLM语言系统的人在编故事的时候称其为“幻觉”。Chemero说,“最好称其为bullsh*tting(废话)”,因为LLM系统只是通过反复添加统计学上最有可能的下一个单词来造句——他们不知道或是不关心他们所说的是否真实。通过一点刺激,人们可以得到一个人工智能工具表达“种族主义、性别歧视以及其他偏见”。
智力中的人类元素
Chemero的论文的意图是强调,LLM语言系统在人类智能的方式上并不智能,因为人类是可以具体表达的:总是被其他人类以及物质和文化环境包围着的生物。“这让我们关心自己的生存以及我们生活的世界。”他指出,LLM语言系统并不真正存在于这个世界上,它不在乎任何事情。
Chemero认为,LLM语言系统不像人类那样聪明,因为他们“根本不在乎”,并补充说:“事情对我们来说很重要。我们致力于生存。我们关心我们生活的世界。”
来源:壹财信