当前位置:首页|资讯|马斯克|OpenAI|人工智能

马斯克等大佬紧急呼吁:暂停训练更强大的 AI!医学教授也加入签名

作者:丁香园发布时间:2023-03-29

原标题:马斯克等大佬紧急呼吁:暂停训练更强大的 AI!医学教授也加入签名

在过去几个月里,ChatGPT 带来了前所未有的革新和冲击。在大部分人还在观望这场浪潮的方向时,有些人选择出手了。

生命未来研究所发布了一封题为「暂停巨型 AI 实验」的公开信、呼吁所有人应该立即停止训练比 GPT-4 更强大的 AI 系统,而且暂停期至少 6 个月。

这封公开信指出,最近几个月,人工智能实验室陷入了一场失控的竞赛,没有人甚至是他们的创造者都无法理解,预测或是可靠地控制大模型。人类社会对其可能造成的影响也没有做好准备。

而现在 AI 已经变得像人类一样具有竞争力,因此,在我们确保 AI 是可控可监管的前,所有的 AI 训练都应当立即暂停,至少 6 个月。如果无法迅速暂停,应该让政府介入。

公开信地址:https://futureoflife.org/open-letter/pause-giant-ai-experiments/

对于 AI 发展的质疑并不稀奇,在上个月微软发布 New Bing 之后,就有一封「停止邪恶 AI」的公开信在网络上冒头。

但生命未来研究所今天的这封公开信,发布几个小时后就引起现象级讨论,更重要的是得到了数位业界大佬的支持,其中不乏 AI 界的顶级专家,图灵奖得主 Yoshua Bengio,特斯拉 CEO(OpenAI 联合创始人)伊隆・马斯克,苹果联合创始人 Steve Wozniak,「人类简史」系列畅销书的作者 Yuval Noah Harari 等一千多人在公开信上联名。

部分签名者

(图源:Future of Life Institute)

公开信的发起方 Future of Life Institute 是一家非营利组织,其使命是降低核战争的风险并改善 AI 治理。著名物理学家 Max Tegmark 是其总裁,Skype 联合创始人 Jaan Tallin 和 Deep Mind Institute 研究员 Victoria Krakovna 是其董事会成员。该研究所的网站将马斯克列为外部顾问

图源:Future of Life Institute

马斯克曾在公开表示,对现在的 Open AI 并不满意,他认为人工智能是危险的,需要监管的。

随着网友讨论热情高涨,早些时候大家在这份签名表里甚至还发现了 OpenAI CEO 的签名(现已删除)。

出现在签名人员名单里的 Yann LeCun 则在社交平台上澄清,自己并没有签署,不同意这封公开信的前提。

纽约大学著名神经学教授 Gary Marcus 对于 AI 一直保持十分保守的态度,他在社交平台表示自己签署了这份名单。

除此之前,截止发稿前,还没有其他名单上的业界知名人士公开表态。

以下为公开信全文:

大量研究表明:具有人类水平智能的 AI 系统可能对社会和人类带来极大的风险,这一点已经得到顶级 AI 实验室的认同。正如广泛认可的 Asilomar AI 原则中所述,高级 AI 可能代表地球生命史上的深刻变化,应以相应的关怀和资源进行规划和管理。不幸的是,目前尚无这种级别的规划和管理。最近几个月人工智能实验室陷入了一场失控的竞赛,他们致力于开发和部署更强大的数字思维,但是没有人能理解、预测或可靠地控制这些大模型,甚至模型的创造者也不能。

当代人工智能系统现在在一般任务上表现与人类相当,我们必须扪心自问:

我们是否应该让机器用宣传(尤指褊狭、误导的)和谎言充斥我们的信息渠道?

我们应该自动化所有的工作,包括令人满意的工作吗?

我们是否应该发展最终可能超越我们并取代我们的非人类思维?

我们应该冒险失去对我们文明的控制吗?

我们不应该将此类决定交给未经选举产生的技术领导者。只有当我们确信 AI 大模型的影响是积极的并且风险是可控的时,我们才能开发强大的人工智能系统。而且,这种判断必须有充分的理由,并随着系统潜在影响的大小而跟进。OpenAI 最近关于人工智能的声明指出:「在开始训练未来系统之前进行独立审查可能很重要,并且对于最先进的工作来说,人们应该在合适的时间点限制用于创建新系统的计算增长率。」我们认为,现在已经到了这个时间点。

因此,我们呼吁所有 AI 实验室立即暂停训练比 GPT-4 更强大的 AI 系统,为期至少 6 个月。这种暂停应该是公开的和可验证的,并且所有关键参与者也应该暂停相关工作。如果不能迅速实施这种暂停计划,政府机构应介入并暂停。

人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。这些协议应确保遵守它们的系统是安全的,无可置疑的。这并不意味着总体上暂停 AI 开发,而是从具有新兴功能的、不可预测的大型黑盒模型的危险竞赛中后退一步。

人工智能的研究和开发应该重新聚焦于使当今强大的、最先进的系统更加准确、安全、可解释、透明、稳健、一致、可信和可靠。

同时,人工智能开发者必须与政策制定者合作,大幅加快强大的人工智能治理系统的开发。这些工作至少应该包括:

  • 专门针对人工智能的新的、有能力的监管机构;
  • 对高能力的人工智能系统和大型计算能力池的监督和跟踪;
  • 帮助区分真实和合成数据的溯源、水印系统,并跟踪模型泄露;
  • 强大的审计和认证生态系统;
  • 对人工智能造成的伤害的责任认定;
  • 对人工智能安全技术研究的强大公共资金;
  • 资源丰富的机构,以应对人工智能将造成的巨大经济和政治混乱。

人类可以通过人工智能享受一个繁荣的未来。在成功创造出强大的人工智能系统之后,我们现在可以享受一个「人工智能之夏」。在这个夏天,我们收获了回报,为所有人的明确利益设计这些系统,并给社会一个适应的机会。社会已经暂停了对自身有潜在灾难性影响的其他技术。我们在这个领域也可以这样做。

让我们享受一个漫长的 AI 之夏,而不是在毫无准备的情况下坠入秋天。

本文首发于丁香园旗下平台:生物学霸|策划:Lnysay


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1