当前位置:首页|资讯|人工智能|AGI|OpenAI|GPT-4

美国政府委托报告建议:政府应限制人工智能算力规模,以避免"灭绝级"威胁

作者:钛媒体APP发布时间:2024-03-13

原标题:美国政府委托报告建议:政府应限制人工智能算力规模,以避免"灭绝级"威胁

图片来源@视觉中国

文 | 乌鸦智能说

周一发布的一份美国政府委托报告显示,美国政府必须"迅速果断"采取行动,避免人工智能(AI)潜在的重大国家安全风险。

“当前人工智能前沿发展对国家安全构成的风险,紧迫且日益增长。”《时代》周刊在发布前获得了这份报告。“先进人工智能和AGI(人工通用智能)的崛起有可能破坏全球安全的稳定,其威力不禁让人想起上世纪的核武器。"AGI目前仍是一种假想技术。据传,AGI可以执行大多数任务,达到或超过人类的水平。这种系统尚未出世,但领先的人工智能实验室正在加紧研发相关技术。许多人预计这将在未来五年或更短时间内成为现实。

撰写报告的三位作者花了一年多的时间与200多名政府雇员、专家和前沿人工智能公司的工作人员进行了交谈,例如OpenAI,GoogleDeepMind,Anthropic和Meta等公司的研发人员。与专家的谈话传递了很多让人不安的讯息,顶尖实验室中的许多人工智能安全工作者认为,公司高管在决策过程中采取的部分激励措施过于激进。

这份题为《提高先进人工智能安全性的行动计划》(AnActionPlantoIncreasetheSafetyandSecurityofAdvancedAI)的文件建议,政府应当采取一系列监管AI发展的政策,而这些政策一经颁布,将从根本上颠覆现有人工智能产业。报告建议,国会应将训练超过规定算力的人工智能模型定性为非法行为。报告建议成立一个新的联邦人工智能机构来设定算力标准,将这一门槛设定在略高于目前用于训练OpenAI的GPT-4等尖端模型的计算能力水平之上。报告还说,新的人工智能机构应要求处于行业"前沿"的人工智能公司在训练和部署新模型时获得政府许可,使其高于某个较低的门槛。报告称,当局还应"紧急"考虑禁止公布强大的人工智能模型的"权重"或内部工作原理,例如在开源许可下公布,违者可能会被判处监禁。报告建议,政府应进一步加强对人工智能芯片制造和出口的控制,并将联邦资金用于"对齐"研究,使先进的人工智能更加安全。

根据公开记录,这份报告是美国国务院于2022年11月委托编写的,隶属于一份价值25万美元的联邦合同。该报告由格拉德斯通人工智能公司(GladstoneAI)撰写。该公司是一个专门为政府雇员提供人工智能技术简报的四人团队。(行动计划的部分内容建议政府投入大量资金,对官员进行人工智能系统技术基础方面的教育,以便他们更好地了解其风险)。

报告文件共计247页,于2024年2月26日提交给国务院。报告第一页说,这些建议“并不反映美国国务院或美国政府的观点”。至今,国务院尚未就该报告发表任何官方言论。

这份报告中的建议主要针对人工智能行业目前的高速发展。2022年11月,聊天机器人ChatGPT的横空出世,让公众开始撕开AI可能给人类社会带来的生存风险。在世界各国政府紧急商议人工智能监管政策的同时,世界上最大的科技公司也在加大力度建设基础设施,以训练更强大的AI系统--某些情况下,公司计划使用10倍或100倍以上的计算能力。与此同时,80%以上的美国公众认为人工智能可能会意外引发灾难性事件,77%的选民认为政府应该加大对人工智能的监管力度。该份民意调查来自人工智能政策研究所。

报告指出,严格规范人工智能系统的算力规格,可能会"缓和现有人工智能开发者之间的竞争态势",并有助于降低芯片行业制造更快硬件的速度。报告建议,随着时间的推移,一旦尖端模型的安全性得到充分证明,联邦人工智能机构可以提高门槛,允许训练更先进的人工智能系统。报告称,同样,如果发现现有模型存在危险能力,政府也可以降低门槛。

但政府可能不会采纳这份建议。战略与国际研究中心(CSIS)瓦德瓦尼人工智能与先进技术中心主任格雷格-艾伦(GregAllen)在回应《时代》周刊就报告中关于取缔超过一定阈值的人工智能训练运行的建议所提供的摘要时说:“我认为美国政府采纳极有可能不会采纳这份建议。”他指出,美国政府目前的人工智能政策是设定计算阈值,超过该阈值则需要额外的透明度监控和监管要求,但并没有设定超过该阈值的训练运行即为非法的限制。艾伦说:“不出意外的话,他们不太可能改变这种做法。”

自2021年起,格莱斯顿公司(Gladstone)的首席执行官和首席技术官,杰雷米-哈里斯(JeremieHarris)和爱德华-哈里斯(EdouardHarris)一直在向美国政府介绍人工智能的风险。他们说,早期关注该事件的政府官员都认为人工智能的风险很大,这些风险的责任应分散到不同的团队或部门。

哈里斯兄弟说,2021年底,格莱斯顿终于找到了监管人工智能风险的政府部门:国务院国际安全与防扩散局。国际安全与防扩散局内的各个小组承担着跨机构的任务,负责应对新兴技术带来的风险,包括化学和生物武器以及放射性和核风险。在杰雷米和格莱斯顿公司当时的首席执行官马克-比厄尔(MarkBeall)做简报后,该局于2022年10月发出了一份报告招标书,决定是否将人工智能加入其监控的其他风险清单。(国务院没有回应就该决定结果发表评论的请求)。格拉德斯通团队赢得了这份合同,周一发布的报告就是其成果。

报告重点阐述了两类不同的风险。报告将第一类风险称为“武器化风险”:“这类系统有可能被用来设计甚至实施灾难性的生物、化学或网络攻击,或在蜂群机器人技术中实现前所未有的武器化应用”。第二类是报告中所说的"失控"风险,即先进的人工智能系统可能超越其创造者。报告称,“我们有理由相信,如果使用现有技术开发,它们可能无法控制,并可能在默认情况下对人类采取敌对行为”。

报告称,人工智能行业的"竞争态势"加剧了这两类风险。最先研发人工智能的公司将获得大部分的经济利润,因此他们会优先考虑发展速度而非相关安全议题。"报告说:“前沿人工智能实验室面临着一种强烈而直接的激励,鞭策他们尽可能快地扩展其人工智能系统。“与AI相关的安全安保措施不会带来经济利益,鲜少有公司将钱花在这上面。”

格拉德斯通报告指出,硬件--特别是目前用于训练人工智能系统的高端计算机芯片--是提高人工智能能力的重要瓶颈。报告认为,规范这种硬件的扩散可能是“保障人工智能长期全球安全和安保的最重要要求”。报告称,政府应探索将芯片出口许可证与芯片技术挂钩的可能性,以监测芯片是否被用于大型人工智能训练运行,以此来执行针对训练规模超过GPT-4的人工智能系统的拟议规则。不过,报告也指出,美国也应谨慎过度监管可能会促进外国芯片产业的发展,从而削弱美国影响供应链的能力。

报告还提出了一种可能性,即宇宙不会眷顾那些试图通过芯片阻止高级人工智能发展的人。“随着人工智能算法的不断优化,用较少的算力就能实现更多的人工智能功能。随着这一趋势不断增强,通过垄断算力阻挠AI发展只是痴人说梦。鉴于此,报告建议成立新的联邦人工智能机构,阻止相关研究成果的发表。当然,因为这会极大损害美国的人工智能产业,最终将难以落地。

哈里斯夫妇在谈话中认识到,他们的建议会让人工智能行业的许多人觉得过于疯狂。他们预计,禁止开源高级人工智能模型开源的建议不会受欢迎。格拉德斯通公司首席技术官爱德华说:“开源通常是一种美妙的愿景,将造福整个人类社会。”要提出这样的建议极具挑战性,我们花了很多时间寻找方法来规避这样的建议措施。"CSIS的人工智能政策专家艾伦说,他认可开源人工智能让政策制定者更难掌控风险的观点。但他表示,任何取缔超过一定规模的模型开源的提议,都需要考虑到美国法律的适用范围有限这一事实。"他说:“这是否意味着开源社区将迁往欧洲?鉴于世界之大,你必须考虑到这一点。”

报告作者说,很多网民都已经学会了如何跨越AI系统设置的安全防护栏获使用更多存在争议性的功能。埃杜阿德说:“发布开源模型始终会面临风险,但开源作为一种趋势已经不可逆转,我们能做的只有承担风险”

该报告的第三位合著者、前国防部官员比厄尔后来离开了格莱斯顿,创办了一个旨在支持人工智能政策的超级政治行动委员会。该政治行动委员会名为“美国人支持人工智能安全”(AmericansforAISafety),于本周一正式成立。该组织在给《时代》周刊的一份声明中说,它的目标是使人工智能安全和安保成为“2024年美国大选中的一个关键问题,目标是在2024年底之前通过人工智能安全立法”。PAC没有透露其融资信息,但表示“已经设定了筹集数百万美元以完成使命的目标”。

在与Beall共同创办Gladstone之前,哈里斯兄弟经营着一家人工智能公司,该公司通过了硅谷著名孵化器YCombinator的审核,当时由OpenAI首席执行官山姆-奥特曼(SamAltman)掌舵。这对兄弟将这作为他们以行业利益为重的证据,尽管他们的建议一旦实施,将颠覆整个AI产业。"杰雷米告诉《时代》周刊:“快速行动,打破常规,这是我们的人生信条。我们就是在这种理念的熏陶下成长起来的。”但他说,当你的行动可能带来巨大的负面影响时,这一信条就不再适用了。”他说,“我们现在正在设计的系统正在朝着超级智能的方向前行,某种程度上,这种级别的科技很有可能被武器化,带来不可估量的影响。不过还有什么更糟的呢?无非就是某一天,AI突然不受控制,届时,我们就会全面禁止AI,不再享受这项科技的福利。”


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1