AI带来的风险应与流行病、核战争并列同级?
这一发言来自一封于5月31日发布的公开信。在大语言模型浪潮袭来、AI军备竞赛打响数月,“AI威胁论”已屡见不鲜的现在,这份公开信仍以其态度极其鲜明的内容引发了国内外一众热议。
除了内容之外,这次公开信的签署者同样受人瞩目。在350多位签名者中,有“AI三巨头”中的两位,获得过图灵奖的Geoffrey Hinton和Youshua Bengio、有谷歌旗下顶级AI实验室Google DeepMind的CEO,就连引爆当下的AI热潮的ChatGPT的开发公司,OpenAI的CEO Sam Altman也到场了——即使他曾对马斯克等人提名的“AI风险警告”公开信嗤之以鼻。
在这封公开信中,还有两位中国科学家的署名,他们分别是中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅、清华智能产业研究院(AIR)助理研究员詹仙园。
6月1日,南都记者联系到了其中一位。曾毅对南都记者表示,公开信的目的并不是阻碍人工智能的发展,而是绝大多数人有权利知道人工智能的潜在风险,研发者们也有义务确保人工智能不给人类带来生存风险,至少要确保这种风险的最小化。
···
“当下AI不是真正的智能,但风险同样巨大”
这封公开信由美国非营利组织,人工智能安全中心(Center for AI Safety)发起,内容非常短,只有22个单词:
减轻人工智能带来的灭绝风险,应该与流行病、核战争等其他社会规模的风险一样,一起成为全球优先事项。
今年3月,马斯克等人推出一封公开信,要求暂停人工智能巨模型实验,其中明确要求“正在训练比GPT-4更强大的AI系统的实验室立即暂停训练,至少暂停6个月”。相比之下,此次这份公开信更像是在表达一种态度——毕竟,如此直白地将“AI带来的风险”和“核战争”、“大流行病”等公认的影响全体人类的危机因素列在一起公开作比较,还尚属首次。
“不论是前段时间的《暂停人工智能巨模型实验》,还是这次新的《人工智能风险声明》,基本上都表达了对人工智能给人类带来潜在生存风险的担忧,或应采取行动的态度。在这个问题上,我的认知与其接近,因此我参与签署了这份联合声明。”曾毅说。
曾毅认为,新的声明之所以将大流行病、核战争与人工智能带来的风险放在同等优先级上,是因为它们给人类带来的潜在的生存风险具有共性——那就是波及范围广,关乎全人类的利益,其影响甚至可能具有广泛致命性。
在他看来,人工智能对人类造成的生存风险,可以从两个方面来看——
如果将目光放到无限远,远到通用人工智能和超级智能到来,AI智力水平可能远超人类,那么或许就会像很多影视作品呈现的那样,视人类如同蝼蚁,与人类争夺资源,甚至危及人类生存。
如果只看现在和不远的未来,当代人工智能只是看似智能的信息处理工具,不具有真正的理解能力。但曾毅认为,正因为它们算不上真正的智能,不理解什么是人类、什么是生死和什么是生存风险,才有可能会以人类难以预期的方式犯下人类不会犯的错误。而这恰恰是更紧迫的关切所在。
“特别是近期,人工智能系统已经能够利用互联网规模的数据与信息,合成虚假信息,这不仅造成个人利益损失,也极大地降低了社会信任度。同时网络通信又使万物互联,可以将相关风险以世界性的规模放大,从而利用和加剧人类之间的偏见和误解、敌对和仇视,而且人工智能还有可能被人类恶意利用、误用和滥用,这种风险几乎是难以预期和控制的。”曾毅表示。
···
反对者:AI是人类危机的关键解决办法
当然,这次AI界的集体喊话也招致不少人反对,比如“AI三巨头”中唯一没有签名的杨立昆(Yann Lecun),他一直态度鲜明地站在“AI威胁论”反对一方。
此前,他曾转推评价马斯克等人发起的那封“暂停训练6个月”的公开信,称信中充斥着骇人听闻的言辞和无效或根本不存在的政策主张。对于这份最新的“警惕AI”公开信,杨立昆也很快发表了自己的看法:
“超级AI”完全不在人类灭绝危机的名单前面——主要因为它现在还不存在。
在我们可以设计出狗这个级别的AI(更不用说人类级别的AI了)之前,讨论如何让它更安全,完全为时过早。
另一位反方的代表、人工智能领域的著名学者吴恩达(Andrew Ng)也认为,要应对大部分对人类造成生存危机的问题,比如流行病、气候变化、小行星撞击等等,AI反而会是关键解决办法——因此,如果人类想要在未来1000年内持续生存并发展,那就需要让AI更快发展,而不是更慢。
谈及当前的AI风险,吴恩达曾表示,“一刀切”的方式不可取,更重要的是各方要在发展AI技术的同时更多地投资AI安全领域,并配合制定围绕透明度和审计的法规。
值得一提的是,OpenAI的CEO Sam Altman此前看起来也像是个反对派,他曾在接受美国国会质询时直接表示,马斯克在《暂停人工智能巨模型实验》中所呼吁的框架是错误的,日期上的暂停毫无意义,但这次联合公开新的署名中,出现了Sam Altman的名字。这一态度转变或许并不难理解,因为Sam Altman在听证会上也提到,建议美国政府组建一个新的政府机构,负责为大型AI模型颁发许可,如果有公司模型不符合政府标准,该机构可以撤销该公司的许可证。
在采访最后,曾毅向南都记者表示,重视和管控人工智能的安全风险不是阻碍人工智能的发展与应用,而是为确保人工智能技术稳健发展。目前的人工智能技术只是一个看似智能的信息处理工具,没有能力成为责任主体,未来应明确人与人工智能的界限,不应被过度拟人化。在使用人工智能服务时,有必要确保知情同意原则,从而避免人们对人工智能的过度依赖和过度信任。
采写:南都记者杨博雯