当前位置:首页|资讯|人工智能|AGI|OpenAI

通用人工智能将三年内实现?OpenAI多员工签联名信呼吁改革

作者:新京报发布时间:2024-06-06

“OpenAI的人工智能系统已经接近人类智能水平,通用人工智能AGI有50%的可能性在2027年就会问世,而不是此前预测的2050年!”6月4日,一封由13名来自OpenAI和Google DeepMind的前员工与现员工联合发布的一封公开信再次将人工智能“蒙眼狂奔”的危险呈现在大众眼前。

有声音认为,当OpenAI的内部人事纠纷以首席执行官山姆奥特曼胜出结束后,该公司已经走向了一条更偏向激进发展与财务利益的路,而将安全与对人类的责任抛诸脑后。一个可能的佐证是,过去一个月内,OpenAI曾经的首席科学家和超级对齐负责人相继离职,员工们也迎来了一波离职潮,其中负责AI安全的员工的流失最为严重。

6月6日,新京报贝壳财经记者注意到,OpenAI发布了一份“为保护研究基础设施和前沿模型训练而设计的安全架构”的简介,OpenAI称,“希望这将使其他AI研究室和安全专业人员受益。”并表示目前正空缺四项职位:安全方向软件工程师、安全工程师、企业安全工程师和隐私安全工程师,希望招聘相关从业人员。

来自13名顶尖人工智能机构员工的担忧:不相信AI公司

“我们是各大前沿AI公司的现任和前任员工,我们相信AI技术有潜力为人类带来前所未有的好处。我们也理解这些技术带来的严重风险。这些风险包括加剧现有的不平等、操纵和误导信息以及失控的自主AI系统可能导致人类灭绝。”在这封联名信的开头,11名联名信签署者就开宗明义地表达了自己的担忧。

信中写道,希望这些风险能够在科学界、政策制定者和公众的充分指导下得到有效的缓解,“然而,AI公司有强烈的财务动机避免有效的监督,我们不相信公司为自己量身定制的治理结构能够改变这一点。AI公司拥有大量关于其系统能力和局限性的非公开信息,这些信息涉及系统的保护措施以及系统的各种风险水平。然而,他们目前只需要向政府分享部分信息,并不背负着向政府汇报的强烈义务,更没有义务向社会公众分享任何信息。我们不认为他们可以完全自愿地分享这些信息。”

联名信呼吁先进AI公司承诺以下原则:

一、公司不会签订或执行任何禁止因风险相关问题而对公司进行诋毁或批评的协议,也不会通过阻碍任何既得经济利益来报复风险相关的批评。

二、公司将创建一个可验证的匿名流程,使现任和前任员工能够向公司的董事会、监管机构以及具有相关专业知识的适当独立组织提出风险相关的担忧;

三、公司将支持公开批评的文化,并允许现任和前任员工向公众、公司的董事会、监管机构或具有相关专业知识的适当独立组织提出他们对技术风险的相关担忧,只要适当保护商业秘密和其他知识产权利益即可;

四、公司不会报复那些在其他流程失败后,公开分享风险相关机密信息的现任和前任员工。我们知道,任何报告风险相关担忧的努力都应避免不必要地泄露机密信息。因此,一旦存在一个足够安全的匿名提出担忧的流程,现任和前任员工应首先通过此类流程提出担忧。然而,只要此类流程不存在,现任和前任员工应保留向公众报告其担忧的自由。

前员工要做“吹哨人” OpenAI急招安全员

13名联名信签署者认为,只要AI公司没有有效的政府监督,那现任和前任员工就是少数能够让公司负起责任的公众人士之一。因此自己必须肩负起AI“吹哨人”的责任。

在这13人中,有11名来自OpenAI,其中6名是OpenAI的现任员工,但因担心被打击报复而采取了匿名发布的方式。

另一方面,保密协议也阻止了这些员工表达担忧,例如OpenAI前员工阿申布伦纳(Leopold Aschenbrenner)就因“泄露公司机密”遭到解雇。6月6日,他也发布了他对人工智能风险的回应:既不能采取“永远封锁”的方法,也不能放任自流,而是需要找到一种更聪明的方式来应对AGI的潜在风险,而其中关键是解决对齐问题。

OpenAI前员工阿申布伦纳(Leopold Aschenbrenner) 图片来源:个人网站首页

丹尼尔·科科塔约洛(Daniel Kokotajlo)是联名签署此封公开信的OpenAI前员工之一。他在2022年加入OpenAI,所任职务是公司的治理研究员。今年4月份他正式从OpenAI辞职,原因是他对公司“失去了信心,认为OpenAI无法在AI系统实现接近人类水平表现时负责任地行事”。

在OpenAI,科科塔约洛看到,尽管公司已经制定了安全相关的规章制度,但这些规章制度常常处于被架空的状态。例如,OpenAI与微软共同建立了部署安全委员会,此委员会的主要目的是为了在正式发布模型之前评估新模型中可能包含的种种风险,但这一委员会似乎并没有起到应有的作用。

“世界还没有准备好(迎接如此高级的AI智能),我们也没有准备好,我担心(这些商业公司)将不管不顾地一意孤行,并为自己的行为寻找借口。先进的人工智能毁灭人类或对人类造成灾难性伤害的可能性高达70%。”科科塔约洛说。

也许是受到了舆论压力,也许是安全相关的雇员真的已经“所剩无几”。6月6日,OpenAI发布了一份简要说明,介绍了自己在威胁模型、架构、安全模型权重、审核测试等方面的工作,并表示将“确保我们领先于新出现的威胁,并继续增强人工智能基础设施的安全性”。

值得注意的事,OpenAI在文章开头和末尾两次强调,自己正在招聘相关的安全人员职位。

记者联系邮箱:luoyidan@xjbnews.com

新京报贝壳财经记者 罗亦丹

编辑 岳彩周

校对 柳宝庆


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1