当前位置:首页|资讯|人工智能|ChatGPT

人工智能的极限:为什么ChatGPT不是真正的“智能”

作者:金融界发布时间:2023-12-21

原标题:人工智能的极限:为什么ChatGPT不是真正的“智能”

近期,一篇新论文认为,如ChatGPT等系统中所示,人工智能的智慧与人类智慧有着根本上的区别,因为它缺少具体表现与理解。这种差异凸显了人工智能无法体会到人类的忧虑或与世界的联系。

人工智能近些年兴起引起了公众、技术高管、政府官员的多种反应。许多人对ChatGPT等人工智能技术充满了热情,将它们视为有能力变革社会的有益工具。

不过一些人也感到担忧,他们担心任何被描述为“智能”的技术都可能拥有超越人类控制和主宰的能力。

人工智能与人类智能的不同性质

加州大学艺术与科学学院哲学心理学教授Anthony Chemero认为,实际上对人工智能的理解已经被语言学所扰乱:虽然人工智能确实很智能,但人工智能不可能像人类那样的智能,即使“它可以像其制造者一样撒谎”。

Chemero在《自然人类行为》杂志上合著的一篇论文中解释说,根据我们对这个词的日常应用,人工智能绝对是智能的,但多年来它一直存在于智能计算机中。

AI的特点和局限性

首先,这篇论文认为ChatGPT和其他人工智能系统是大型语言模型(LLM),接受过互联网大量数据的训练,其中大部分都沾染了发布数据的人的偏见。

论文作者认为:“LLM会产生令人印象深刻的文本,但通常是纯属虚构的事件。”“他们学着制作语法句子,但需要比人类多得多的训练。实际上他们并不知道他们所说的话是什么意思”“LLM与人类的认知不同,因为它们无法被具体表现出来。”

打造LLM语言系统的人在编故事的时候称其为“幻觉”。Chemero说,“最好称其为bullsh*tting(废话)”,因为LLM系统只是通过反复添加统计学上最有可能的下一个单词来造句——他们不知道或是不关心他们所说的是否真实。通过一点刺激,人们可以得到一个人工智能工具表达“种族主义、性别歧视以及其他偏见”。

智力中的人类元素

Chemero的论文的意图是强调,LLM语言系统在人类智能的方式上并不智能,因为人类是可以具体表达的:总是被其他人类以及物质和文化环境包围着的生物。“这让我们关心自己的生存以及我们生活的世界。”他指出,LLM语言系统并不真正存在于这个世界上,它不在乎任何事情。

Chemero认为,LLM语言系统不像人类那样聪明,因为他们“根本不在乎”,并补充说:“事情对我们来说很重要。我们致力于生存。我们关心我们生活的世界。”

来源:壹财信


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1