当前位置:首页|资讯|人工智能|AGI|Ilya Sutskever|OpenAI|ChatGPT

我们离通用人工智能还有多远?答案可能在这篇120页的论文里

作者:人工智能大讲堂发布时间:2024-05-24

放眼全球,几乎所有的科技公司都加入到了大模型的军备竞赛中,LLM不再是简单的噱头,而是行业发展的重要趋势,这个趋势剑指AGI(通用人工智能)。

但对于是否能够实现AGI,大家的观点也莫衷一是。

“LLM不是简单的预测下一个token”

                                               - Geoffrey Everest Hinton,人工智能教父

“为了有效学习文本中统计关联并压缩这些信息,神经网络实际上学到的是产生这些文本的有效表示,这些表示是现实世界的投影 ”

                                 -Ilya Sutskever,前OpenAI首席科学家,ChatGPT缔造者

                                                   

从这对师徒的观点看,虽然没有直接表明AGI肯定会到来,但他们相大模型的潜力。

“如回到牛顿时代,把当时所有数据都给大模型,它能否发现牛顿定律?”

                                                            -何凯明,ResNet作者,MIT副教授

何凯明的观点是光靠堆数据和模型规模很难实现AGI,但他并没有唱衰AGI,而是通过曲线救国的方式,给LLM加个代码解释器,将结果作为反馈。

在科学研究过程中,物理、数学等复杂的定理是建立在假设、推理、证明基础之上的,科学也需要实验,对于大模型来说,谁会成为那颗掉落的苹果呢?会是Agent吗?

“语言是人类创造的,大模型训练数据质量参差不齐,大模型学习的知识只是人类知识的二次映射。” 这段话来自一篇博客的评论。

早在去年,互联网上流出一份OpenAI内部绝密资料,资料中列出了AGI的时间节点,人们预测今年春季发布会上会发布接近AGI水平的GPT5,但最终没有等到它的到来,结合OpenAI去年的政变,有人预测肯定是遇到了障碍,要么当前数据不足实现AGI,要么是transforner架构有效率问题,或者是遇到人为干扰。

人能革自己的命吗?

“大约250万年前,类人生物出现,但到大约1万年前只剩下智人。”

--人类简史

是什么让智人成为地球的主宰?又是什么让人类登上食物链顶端?

据人类简史描述,大约7万年前,“智人”开始发展出更复杂的大脑结构,使其具有想象力,通过想象力构造共同的信仰、神话和故事,来增强社会协作能力,正是这种协作能力让他们打败其它种族。

除此之外,宗教,货币,法律都是靠这种想象力虚构出来的,甚至支付你薪酬的公司。

但想象力不能靠意念传输,所以就有了语言,语言是表达想象力的重要工具。具有AGI能力的大模型塑造故事的能力将远超人类。

在AGI时代,因资源,认知,智商差形成的层级,在AGI的加持下,智商和认知的差距将被缩小,信息差也不复存在,原有的格局,阶层可能会被打破重建,财富会被重新分配。那么,人类愿意革自己的命吗?阻碍AGI发展的可能是人类自己。

去年马斯克联合众多科技大佬共同抵制继续发展大模型,先不说他们的目的是否纯正,就算站在全人类的角度看,碳基生命会被硅基生命威胁吗?

当然,人类简史也是人写的,对于上述观点的准确性也只有留给大家自己去思考了。

但无论如何,对于AGI的思考都应该提到日程上了。

今天给大家推荐一篇2024年的论文:How Far Are We From AGI?全文120页,作者团队来自美国多所顶级大学。

https://arxiv.org/pdf/2405.10313v1


该论文的视觉目录



目录

  1. 引言

    • 1 Introduction

  2. 人工通用智能(AGI)的内部机制:揭示AGI的思维

    • 2.1 人工智能感知

    • 2.2 人工智能推理

    • 2.3 人工智能记忆

    • 2.4 人工智能元认知

  3. AGI接口:将世界与AGI连接

    • 3.1 数字世界的AI接口

    • 3.2 物理世界的AI接口

    • 3.3 智能的AI接口

      • 3.3.1 与其他AI代理的AI接口

      • 3.3.2 与人类的AI接口

  4. AGI系统:实现AGI的机制

    • 4.1 系统挑战

    • 4.2 可扩展的模型架构

    • 4.3 大规模训练

    • 4.4 推理技术

    • 4.5 成本与效率

    • 4.6 计算平台

    • 4.7 AGI系统的未来

  5. AGI对齐:确保AGI满足各种需求

    • 5.1 AGI对齐的期望

    • 5.2 当前的对齐技术

    • 5.3 如何处理AGI对齐

  6. AGI路线图:负责任地接近AGI

    • 6.1 AGI级别

    • 6.2 AGI评估

      • 6.2.1 对AGI评估的期望

      • 6.2.2 当前的评估及其局限性

    • 6.3 如何达到下一个AGI级别

    • 6.4 “我们离AGI有多远”研讨会讨论

    • 6.5 AGI开发过程中的进一步考虑

  7. 案例研究:与AGI共同展望光明未来

    • 7.1 科学发现和研究中的AI

    • 7.2 生成视觉智能

    • 7.3 为AGI构建世界模型

    • 7.4 分布式AI

    • 7.5 用于编码的AI

    • 7.6 具身AI:AI在机器人技术中的应用

    • 7.7 人工智能与人类协作


以下是论文的内容摘要:

本文从实现AGI所需重要组成出发,描述每个组成当前的进展以及如果要实现AGI应该达到什么程度。

  1. 引言:

    • 论文讨论了人工智能(AI)的演变及其驱动通用人工智能(AGI)追求的不断增长的需求。AGI旨在以类似人类的效率和效果执行各种现实世界的任务。论文强调了全面讨论AGI的定义、目标和发展轨迹的必要性,旨在回答我们距离AGI有多近以及如何负责任地实现它。

历年来,AI在人类活动中,超过人类的比例


    2.AGI内部:揭示AGI的思维:

    • 该部分详细介绍了AGI的内部组件,包括感知、推理、记忆和元认知。它概述了这些组件的当前状态和未来预期,强调了整合这些认知能力以创建真正智能系统的重要性。


    3.AGI接口:连接AGI与世界:

    • 论文讨论了AGI如何与数字、物理和智能世界交互。它强调了数字接口用于动态交互的必要性,物理接口用于现实世界应用的重要性,以及智能接口用于高级认知任务的关键性。未来方向是增强AGI的能力并确保其安全有效的交互。


    4.AGI系统:

    • 该部分涵盖了AGI的架构方面,包括各种AI组件的集成以及效率和可扩展性的重要性。它强调了需要能够理解和导航互联世界的系统,以便实现更深刻的科学见解和发现。


    5.AGI对齐:

    • AGI对齐关注确保AGI系统与人类价值观和伦理原则协调一致。论文概述了当前的对齐技术,如人类监督和价值学习,并提出了未来对齐策略的框架。这对于引导AGI系统实现有益的结果和最小化风险至关重要。


    6.AGI路线图:

    • 路线图部分提供了实现AGI的结构化方法,列出了关键里程碑和评估框架。它强调了负责任的发展以及解决伦理考虑和社会影响的重要性。


    7.案例研究:

    • 论文呈现了各领域早期AGI发展的案例研究,展示了将AGI集成到现实场景中的实际应用和挑战。

    8.结论:

    • 结论重申了负责任地推进AGI研究的重要性,促进公众讨论,并解决技术和伦理挑战,以确保AGI造福全人类。

该文件对通往AGI旅程中的基本组件和挑战进行了深入的审视,倡导一种优先考虑安全、效率和与人类价值观一致的平衡方法。



Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1