鞭牛士报道,5月23日消息,据外电报道,Meta 的首席人工智能科学家认为大型语言模型永远无法达到人类的智力。
据英国《金融时报》(FT)周三(5 月 21 日)报道, Yann LeCun 断言,ChatGPT 等人工智能 (AI) 大型语言模型 (LLM) 对逻辑的掌握有限。
LeCun 告诉英国《金融时报》,这些模型不了解物理世界,没有持久记忆,无法对术语进行任何合理的定义推理,也无法进行计划。
他反对依靠AI来达到人类水平的智力,因为这些模型需要正确的训练数据来正确回答提示,从而使它们本质上不安全。
LeCun 正在研究一批全新的人工智能系统,旨在为机器提供人类水平的智能,尽管这可能需要 10 年时间才能实现。
报告指出,这是一场潜在风险的赌博,因为许多投资者希望人工智能投资能快速获得回报。
在首席执行官马克扎克伯格承诺增加支出并将这家科技巨头打造成世界领先的人工智能公司之后,Meta 最近的市值缩水了近 2000 亿美元。
与此同时,其他公司正在推进强化AI事务,希望创造出通用人工智能(AGI),即认知能力超越人类的机器。
例如,本周人工智能公司 Scale 在 F 轮融资中筹集了 10 亿美元,该初创公司的估值 接近 140 亿美元,创始人Alexandr Wang在公告中讨论了该公司的 AGI 雄心。
数小时后,这家名为H的法国初创公司透露,它已经筹集了 2.2 亿美元,首席执行官查尔斯·坎特 (Charles Kantor) 向彭博新闻社表示,该公司正在努力实现 全面 AGI。
然而,一些专家质疑人工智能像人类一样思考的能力。其中包括 Akli Adjaoute,他在 AI 领域工作了 30 年,最近撰写了《Inside AI》一书。
他并不猜测这项技术是否能够 思考和推理,而是将人工智能视为一种有效的工具,并强调了解人工智能在数据中的根源及其在复制人类智能方面的局限性的重要性。
Adjaoute 告诉 PYMNTS 首席执行官 Karen Webster: 人工智能不具备 理解 人类理解方式的能力。
「它遵循模式。作为人类,我们寻找模式。例如,当我识别数字 8 时,我看不到两个圆圈。我看到一个。我不需要任何额外的力量或认知。这就是人工智能的基础。这是对算法的识别,这就是为什么它们是为特定任务而设计的。」