当前位置:首页|资讯|人工智能|清华

上海AI Lab主任、首席科学家周伯文亮相WAIC,人工智能45°平衡律主张首次曝光

作者:机器之心Pro发布时间:2024-07-06

机器之心报道

机器之心编辑部

终于,清华大学教授周伯文正式向外界揭晓了自己的新身份——上海人工智能实验室主任、首席科学家

7 月 4 日,2024 世界人工智能大会暨人工智能全球治理高级别会议(WAIC 2024)在上海开幕。上海人工智能实验室主任、首席科学家,清华大学惠妍讲席教授,衔远科技创始人周伯文在 WAIC 2024 全体会议上发表演讲。

演讲中,周伯文阐述了他的全新技术主张「人工智能45°平衡律(AI-45° Law)」,以及上海人工智能实验室实现该主张的技术路径「可信 AGI 的因果之梯」。

以下为演讲全文。

尊敬的各位领导,各位嘉宾,大家上午好,非常荣幸在 WAIC 大会上、在上海,与大家分享人工智能安全的前沿技术话题,我想提出一个技术主张:探索人工智能 45° 平衡律 ——Towards AI-45°Law。

当前,以大模型为代表的生成式人工智能快速发展,但随着能力的不断提升,模型自身及其应用也带来了一系列潜在风险的顾虑。

从公众对 AI 风险的关注程度来看,首先是数据泄露、滥用、隐私及版权相关的内容风险;其次是恶意使用带来伪造、虚假信息等相关的使用风险;当然也诱发了偏见歧视等伦理相关问题;此外还有人担心:人工智能是否会对就业结构等社会系统性问题带来挑战。在一系列关于人工智能的科幻电影中,甚至出现了 AI 失控、人类丧失自主权等设定。

这些由 AI 带来的风险已初露端倪,但更多的是潜在风险,防范这些风险需要各界共同努力,需要科学社区做出更多贡献。

去年 5 月,国际上数百名 AI 科学家和公众人物共同签署了一份公开信《Statement of AI Risk》,表达了对 AI 风险的担忧,并呼吁,应该像对待流行病和核战争等其他大规模的风险一样,把防范人工智能带来的风险作为全球优先事项。

出现对这些风险担忧,根本原因是我们目前的 AI 发展是失衡的。

先让我们来看一下目前的 AI 发展趋势:

在 Transformer 为代表的基础模型架构下,加以(大数据 - 大参数量与大计算)的尺度定律(Scaling Law),目前 AI 性能呈指数级增长。

与此形成对比的是,在 AI 安全维度典型的技术,如:红队测试、安全标识、安全护栏与评估测量等,呈现零散化、碎片化,且后置性的特性。

最近的一些对齐技术兼顾了性能和安全性。比如:监督式微调 SFT、人类反馈的强化学习 RLHF 等技术,RLAIF、SuperAlignment 等。这些方法帮助将人类的偏好传递给 AI,助推涌现出了 ChatGPT、GPT-4 等令人兴奋的 AI 系统,以及我们上海 AI 实验室的书生 Intern 大模型等等。虽然瞄准的是安全和性能同时提升,但这些方法在实际使用中往往还是性能优先。

所以总体上,我们在 AI 模型安全能力方面的提升,还远远落后于性能的提升,这种失衡导致 AI 的发展是跛脚的,我们称之为 Crippled AI。

不均衡的背后是二者投入上的巨大差异。如果对比一下,从研究是否体系化,以及人才密集度、商业驱动力、算力的投入度等方面来看,安全方面的投入是远远落后于 AI 能力的。

李强总理刚才提出 “智能向善”。AI 要确保可控,统筹发展与安全。毫无疑问地,我们要避免这样的 Crippled AI 发展,我们应该追求的是:TrustWorthy AGI,可信的 AI,可信的通用人工智能。

实现安全与性能共同增长的 “AI-45° 平衡律”

可信 AGI 需要能够兼顾安全与性能,我们需要找到 AI 安全优先,但又能保证 AI 性能长期发展的技术体系。我们把这样一种技术思想体系叫做 “AI-45° 平衡律” (AI-45° Law)。

AI-45° 平衡律是指从长期的角度来看,我们要大体上沿着 45 度安全与性能平衡发展,平衡是指短期可以有波动,但不能长期低于 45°(如同现在),也不能长期高于 45 度(这将阻碍发展与产业应用)。这个技术思想体系要求强技术驱动、全流程优化、多主体参与以及敏捷治理。

实现 AI-45° 平衡律也许有多种技术路径。我们上海 AI 实验室最近在探索一条以因果为核心的路径,我们把它取名为:可信 AGI 的 “因果之梯”,致敬因果推理领域的先驱 —— 图灵奖得主 Judea Pearl。

可信 AGI 的 “因果之梯” 将可信 AGI 的发展分为三个递进阶段:泛对齐、可干预、能反思。

“泛对齐” 主要包含当前最前沿的人类偏好对齐技术。但需要注意的是,这些安全对齐技术仅依赖统计相关性而忽视真正的因果关系,可能导致错误推理和潜在危险。一个典型的例子是巴甫洛夫的狗:当狗仅仅基于铃声和食物的统计相关性形成条件反射时,它可能在任何听到铃声的场合都触发行为分泌唾液 —— 如果这些行为涉及到…… 时这显然是不安全的。

“可干预” 主要包含通过对 AI 系统进行干预,探究其因果机制的安全技术,例如人在回路、机械可解释性,以及我们提出的对抗演练等,它以通过提高可解释性和泛化性来提升安全性,同时也能提升 AI 能力。

“能反思” 则要求 AI 系统不仅追求高效执行任务,还能审视自身行为的影响和潜在风险,从而在追求性能的同时,确保安全和道德边界不被突破。这个阶段的技术,包括基于价值的训练、因果可解释性、反事实推理等。

目前,AI 安全和性能技术发展主要停留第一阶段,部分在尝试第二阶段,但要真正实现 AI 的安全与性能平衡,我们必须完善第二阶段并勇于攀登第三阶段。沿着可信 AGI 的 “因果之梯” 拾级而上,我们相信可以构建真正可信 AGI,实现人工智能的安全与卓越性能的完美平衡。

最终,像安全可控的核聚变技术为全人类带来清洁、丰富的能源一样,我们希望通过深入理解 AI 的内在机理和因果过程,从而安全且有效地开发和使用这项革命性技术。

也正如可控核聚变对全人类都是共同利益一样,我们坚信 AI 的安全也是全球性的公共福祉,陈吉宁书记刚刚在发布的《人工智能全球治理上海宣言》中提到 “要推动各国加强交流和对话”,我们愿与大家一起携手推进 AI-45° 平衡律的发展,共享 AI 安全技术、加强全球 AI 安全人才交流与合作,平衡 AI 安全与能力的投入,共同构建开放、安全的通用人工智能创新生态和人才发展环境。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1