这封信呼吁,所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少6个月。
29日,未来生命研究所(Future of Life Institute)公布了一封公开信,信中,其呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。被称为“人工智能教父”的杰弗里·辛顿(Geoffrey Hinton) 、纽约大学心理学和神经科学荣誉教授马库斯和特斯拉CEO马斯克均签署了这封公开信,以下为具体内容。
具有与人类竞争的智能的AI系统可能对社会和人类带来深远的风险,这已经得到了大量研究和顶级AI实验室的认可。正如广泛认可的阿西洛马人工智能原则(Asilomar AI Principles)所述,先进的AI可能会对地球生命历史产生深远的变革,应该得到相应的关注和资源进行规划和管理。不幸的是,即使近几个月来AI实验室在开发和部署越来越强大的数字化思维方面陷入了失控的竞赛,这种规划和管理也没有得到实现,而这些数字化思维连它们的创造者也无法理解、预测或可靠地控制。
当代AI系统现在正变得在通用任务方面具有与人类竞争的能力,我们必须问自己:我们应该让机器充斥我们的信息渠道,充满宣传和不实之词吗?我们应该将所有工作自动化,包括那些令人满意的工作吗?我们应该发展非人类思维,让它们最终在数量、智慧和技能上超越、淘汰和取代我们吗?我们应该冒着失去对文明的控制的风险吗?
这样的决策决不能委托给未经选举的科技领导者。只有在我们确信它们的影响将是积极的,风险可控的情况下,才应该发展强大的AI系统。这种信心必须得到充分的理由,并随着系统潜在影响的增大而增强。OpenAI最近关于通用人工智能的声明指出:
“在某些时候,可能在开始训练未来系统之前,获得独立审查非常重要,最先进的努力应同意限制用于创建新模型的计算增长速度。”
我们同意。那个时候就是现在。
因此,我们呼吁暂停训练比GPT-4更强大的AI系统至少6个月,这个过程应该是公开且可验证的,并包括所有关键参与者。如果无法迅速实施此类暂停,政府应介入并实行暂停令。
AI实验室和独立专家应利用这段暂停时间共同制定和实施一套先进AI设计和开发的共享安全协议,这些协议应由独立的外部专家严格审计和监督。这些协议应确保遵循它们的系统在合理怀疑范围之外是安全的。这并不意味着要暂停AI的总体发展,而只是从竞相开发越来越大、不可预测的黑箱模型和具有突现能力的模型中退后一步。
AI研究和开发应该重新关注如何使现有的强大、先进的系统变得更准确、安全、可解释、透明、稳健、符合人类意愿、值得信赖和忠诚。
与此同时,AI开发者必须与政策制定者合作,大力加快发展健全的AI治理系统。这些至少应包括:专门负责AI的新型、有能力的监管机构;对高能力AI系统和大量计算能力的监督和跟踪;用于区分真实和合成内容以及跟踪模型泄漏的来源和水印系统;健全的审计和认证生态系统;对AI造成的损害承担责任;技术AI安全研究的充足公共资金支持;以及应对AI将带来的严重经济和政治颠覆(尤其是对民主制度)的充足资源支持的机构。
人类可以在AI的帮助下享受繁荣的未来。我们已经成功地创造了强大的AI系统,现在可以享受一个“AI夏天”,在其中我们可以收获回报,为所有人明确地利用这些系统,让社会有机会适应。社会已经对可能对社会产生灾难性影响的其他技术按下了暂停键。我们也可以在这里做到。让我们享受一个漫长的AI夏天,而不是毫无准备地冒进入秋天。