当前位置:首页|资讯|AIGC|智源|人工智能|深度学习

AIGC“尖峰系列”|智源大会:后AI时代,人类的未来与隐忧

作者:源码资本发布时间:2023-06-12

原标题:AIGC“尖峰系列”|智源大会:后AI时代,人类的未来与隐忧

前言

6月9日-10日,AI内行顶级盛会“北京智源大会”在北京举办。智源研究院被称为中国OpenAI的最强中国AI研究院,智源大会是智源研究院主办的年度国际性人工智能高端专业交流活动,参会嘉宾大佬云集,图灵奖得主Geoffrey Hinton、Yann LeCun、OpenAI首席执行官Sam Altman悉数参会,业界学界共200余位人工智能顶尖专家到场,这场国内最高规格的人工智能大会因此被戏称为“AI春晚”。

此次大会,不仅讨论了基础模型前沿技术、类脑计算研究、AI安全与对齐,还在视觉与多模态大模型、还在具身智能与强化学习、生成模型、AI系统、AI开源、自动驾驶等方面进行了探讨。

智源人工智能研究院理事长、美国国家工程院外籍院士张宏江博士,于2017年加盟源码资本任投资合伙人(VenturePartner)。张宏江博士是原微软亚太研发集团首席技术官,曾获2010年IEEE计算机学会技术成就奖和2012年ACM多媒体杰出技术成就奖,并获评2008年度美国杰出亚裔工程师奖。自2018年起,在Guide2Research发布的世界顶尖计算机科学家排名中,蝉联中国大陆科学家榜首。

源码整理了此次大会中部分重要演讲,与各位分享,希冀在人类探索AGI的道路上薪火守望。

01

图灵奖得主杨立昆:大语言模型无法带来AGI

在2023 智源人工智能大会上,深度学习三巨头之一的杨立昆发表了名为《朝向会学习、 思考和计划的机器进发( Towards Machines that can Learn, Reason, and Plan)》的主题演讲,在此次演讲中,LeCun 对自己近年来倡导的自监督学习进行了梳理,从认知科学出发对人工智能领域未来 10 年的研究目标展开了更为宏大的畅想,提出了基于自监督学习、世界模型、推理、规划的强人工智能实现路线图。

他认为,人工智能的发展需要放弃生成模型、强化学习方法这样的主流路线。

杨立昆 Yann LeCun

FAIR 首席AI科学家,Facebook人工智能实验室负责人,曾获得“神经网络先驱奖”。同时是美国国家科学学院、美国国家工程学院和法学院国家科学院的院士。2018年图灵奖得主。出版图书《科学之路:人,机器与未来》。

观点摘要:

  1. 当前的机器学习系统在输入和输出之间有恒定数量的计算步骤,以致于它们不能像人类和动物那样推理和规划。
  2. 自监督学习旨在学到到输入中的依赖关系,而非简单构建输入到输出的映射。训练系统会捕捉我们看到的部分和我们尚未看到的部分之间的依赖关系。
  3. 如果使用一万亿个 Token 或两万亿个 Token 的数据训练模型,它们将获得惊人的性能。但实际上,它们也会犯很愚蠢的错误(事实错误、逻辑错误、不一致性等),它们的推理能力有限,会产生有害内容。这些系统缺乏底层的物理现实知识,因为它们纯粹是通过文本来训练的,无法完全理解人类知识,无法真正规划答案。
  4. 你可以让大模型做各种事情:用各种语言写代码、生成文本,而且效果很好。但同样,他们会虚构一些故事。如果你想获知真实的信息,我们不如使用信息检索系统、搜索引擎。
  5. 人工智能研究面临三大挑战:(1)通过自监督学习习得表征并预测世界模型。当下的自监督和强化学习需要大量的样本和试验。我们要通过自监督学习,以一种任务无关的方式表征世界。学习用于规划和控制的预测模型。(2)学会推理:犹如 Daniel Kahenman 提出的“系统 1 & 系统 2”的理论。系统 1 是一种与潜意识计算相对应的人类行为或行为,你不需要思考就能做的事情。系统 2 是有意识地用你的大脑的全部力量进行推理。当下的人工智能系统大多停留在系统 1 的阶段。(3)学习规划复杂的动作序列。通过将复杂的任务分解成简单的任务来分层次地计划复杂的动作序列。
  6. 如何让 AI 能够像人类一样能真正规划?可以参考人类和动物是如何快速学习的——通过观察和体验世界,Lecun 由此提出「世界模型(World Model)」。

稿件参考:

智源大会:卷积神经网络之父的强人工智能路线图:自监督,推理,规划

02

OpenAI CEO Sam Altman: AGI或将十年内出现

ChatGPT的发布掀起了本轮AI领域的创新狂潮,6月6日,美国营销机构Veza Digital数据显示,ChatGPT开发公司OpenAI的网站每月独立用户量(Monthly Unique Visitors)在今年3月已飙升至10亿大关,刷新了消费级网站的用户增长速度记录。

6月10日全天的“AI安全与对齐”论坛中,OpenAI联合创始人、CEO,萨姆·奥特曼(Sam Altman)进行了开场主题演讲,这也是他第一次中国演讲。他还与智源研究院理事长张宏江隔空问答,交流关于AGI的未来、GPT-5、开源大模型等话题。

演讲中,Sam Altman借用《道德经》表示“AI安全,始于足下”,呼吁加快推进全球合作。

Sam Altman认为,人工智能爆发式增长的背景下,未来10年就可能会出现超强AI,呼吁全球共同监管,并且在相关的研究部署上对齐,建立全球信任。他还积极评价了中国在人工智能安全对齐上的意义,他表示“中国拥有世界上最优秀的人才,而解决人工智能系统对齐的困难,需要来自世界各地的人才。”

观点摘要:

  1. AGI 是一种从根本上改变我们文明的强大力量,这意味着有意义的国际合作和协调极其必要。
  2. 我们需要国际合作,以可核查的方式建立对安全开发日益强大的 AI 系统的国际间信任。推动建立提高 AGI 安全技术进步方面的透明度和知识共享的机制。
  3. 尝试使用 AI 系统来协助人类监督其他 AI 系统,并增加模型的可解释性;
  4. AGI可能很快就会发生,但在未来的10年内,我们可能会拥超强的AI系统。
  5. 从人类的角度来看,无论是拥有少量模型还是大量模型,都不能让我们更安全。更重要的是,我们是否有一种机制,确保任何模型都需要经过足够的安全测试。

稿件参考:

极客公园:引用《道德经》,谈大国分歧,Sam Altman 最新演讲:AI 安全始于足下

03

图灵奖得主 Geoffrey Hinton:

通向超级智能有两条道路,而我已经老了

6月10日,AI教父、图灵奖得主 Geoffrey Hinton连线北京智源大会做了《通往智能的两条路径》的闭幕主题演讲。

他从对计算架构和原理的分析中,认为“人造神经网络将比人脑更智能”,而不那么聪明的物种控制比它自己更聪明的事物,是一场前所未有的挑战。

他从目前软硬件分离的计算架构谈起,在这种规则下,训练大模型耗费大量的算力。为了能用更少的能量训练大模型,他提出了非不朽计算/凡人计算(Mortal Computing)的概念——像一个人的智慧依赖他的身体,不可随意复制到另一个身体,软件也更依赖它所存在的硬件。

观点摘要:

  1. 反向传播(Backpropagation,BP)是一种算法,它可以计算神经网络中所有权重的梯度(即损失函数对权重的导数),结合最优化方法(如梯度下降)进行训练。这个梯度指示着网络中每个权重对应的损失函数值的变化方向,最优化方法利用这个梯度信息来更新权重,以使损失函数最小化。所以,通过反向传播,神经网络可以自我纠正和优化,以更好地拟合所需的映射关系。
  2. 前向梯度学习是一种用于计算含噪声的梯度方向的深度神经网络学习方法。与反向传播不同,前向梯度学习在每个样本上计算梯度,而不是在整个数据集上计算梯度。这使得前向梯度学习更符合生物学机制,因为生物神经元也是在每个输入上进行计算。但当要学习的参数量很大时,标准的前向梯度算法会出现较大的方差,这意味着在学习过程中可能会出现不稳定的结果。
  3. 迄今为止,所有的数字计算机都被构建为「不朽」(immortal),其中硬件设计非常可靠,以便相同的软件可以在任何地方运行。“我们可以在不同的物理硬件上运行相同的程序,知识是不朽的。”从这个意义上讲,人类智慧(而非人类)已经实现了永生。
  4. 非不朽计算/凡人计算(Mortal Computing)则将系统学习到的知识和硬件紧密结合,使用功耗极低的模拟计算,还能使用忆阻器权重来进行万亿次并行处理。但同时,意味着无法高效的复制权重来复制智慧,即放弃了永生。

稿件参考:

Web3天空之城:放弃永生的凡人计算:AI教父Hinton 智源大会闭幕主题演讲 (附中文视频)

其他2023智源大会内容,可登录智源大会官网查看https://2023.baai.ac.cn/


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1