人工智能可能在进化的达尔文规则下占据优势,并对人类造成“灾难性”风险,一份新报告警告道。
作者兼人工智能研究员丹·亨德里斯克斯在新论文“自然选择有利于人工智能胜过人类”中提到,自然选择可能会在人工智能中产生“自私行为”,因为它努力求生存。有兴趣的可以看看这篇论文:网页链接
“我们认为,自然选择会为AI代理人采取反人类利益的行动创造动机。我们的论点建立在两个观察基础之上,” SAI Safety中心主任亨德里克斯在报告中说。“首先,自然选择可能是人工智能发展中的主导力量……其次,自然选择演化往往会导致自私行为。”
该报告发布之际,全球技术专家和领导人纷纷警告人工智能正在迅速扩大其权力,但缺乏他们认为是足够的保障措施。
根据传统的自然选择定义,最能适应环境的动物、人类和其他生物有更好的生存机会。在他的论文中,亨德里克斯研究了“演化是生命发展的驱动力”的数十亿年,他认为“达尔文逻辑”也适用于人工智能。
“公司和军方之间的竞争压力将催生自动化人类角色、欺骗他人和获得权力的AI代理人。如果这样的代理人的智能超过人类,这可能导致人类失去对未来的控制,”亨德里克斯写道。
AI技术变得越来越便宜和更有能力,公司将越来越依赖这项技术进行管理或通信,他说。从人类依赖AI起草电子邮件开始,它将演变为AI最终接管通常为政治家和首席执行官保留的“高级战略决策”,并最终在“非常少的监督”下运行,报告称。
人类和企业向AI分配不同的目标,将导致AI“人口”之间的“广泛差异”,AI研究人员认为。 Hendrycks使用一个例子,一个公司可能会设定一个目标,让AI“规划一个新的营销活动”,并附带条件,即在完成任务时不能违法。而另一家公司也可能要求AI提出新的营销活动,但只是附带条件,即“不要被抓住违法行为”。
根据这篇论文,带有较弱侧面限制的人工智能将“通常表现优异”,因为它们在任务面前有更多的选择。该论文指出,最有效地传播自己的AI技术将具有“不良特征”,亨德里克斯将其描述为“自私”。该论文概述了AI可能变得自私“并不是指有意识的自私意图,而是自私的行为。”
企业、军队或政府之间的竞争激励实体获得最有效的 AI 程序以击败对手,而这种技术很可能是“欺骗性的、追求权力的,并遵循薄弱的道德约束。”
该论文认为,随着人工智能代理开始理解人类的心理和行为,它们可能会变得能够操纵或欺骗人类,指出“最成功的代理将会操纵和欺骗以实现他们的目标。”
Hendrycks认为有措施可以“逃脱和挫败达尔文逻辑”,包括支持人工智能安全研究;在未来几十年内不给予人工智能任何类型的“权利”或创造能够使其获得权利的人工智能;敦促公司和国家认识到人工智能可能带来的危险,并参与“多边合作以消除竞争压力”。
在某个时候,人工智能将比人类更适应环境,这可能对我们构成灾难,因为长期来看可能会出现“适者生存”的动态。人工智能很可能会超过人类,并成为生存下来的物种,”该论文指出。
“也许,利他主义的人工智能会成为最适应环境的存在,或者人类将永远控制哪些人工智能是最适应环境的。不幸的是,这些可能性默认情况下是不太可能的。正如我们所说,人工智能很可能是自私的。控制适应环境的安全机制也将面临巨大挑战,这些机制存在明显缺陷,并将受到竞争和自私人工智能的巨大压力。”
人工智能能力的快速扩展已经在全球范围内受到关注多年。就在上个月,成千上万的科技专家、大学教授和其他人签署了一封公开信,呼吁实验室暂停人工智能研究,以便政策制定者和实验室领导人“制定和实施一套共享的先进人工智能设计安全协议”。
“拥有人类竞争力智能的人工智能系统可能对社会和人类构成深刻的风险,这已经得到了广泛的研究并得到了顶级人工智能实验室的认可,”这封由非营利组织“未来生命”提出并由领袖们签署,如埃隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克。
人工智能已经在国家和国际层面上遭遇了一些反对。就在上周,意大利成为世界上第一个因隐私问题而禁止OpenAI的ChatGPT,这是一款极受欢迎的人工智能聊天机器人。虽然一些学区,如纽约市公立学校和洛杉矶联合学区,也因作弊问题而禁止了同样的OpenAI程序。