当前位置:首页|资讯|人工智能

科学家:人工智能必须管控

作者:成都商报cdsb发布时间:2023-01-30

原标题:科学家:人工智能必须管控

据报道,在一场英国政府的科学技术特别委员会会议上,牛津大学的研究人员就不受监管的人工智能技术的危险性发出警告。他们指出,虽然人工智能技术会让生活变得更加方便,但如果被误用滥用,它可能比核武器更致命。如果不像核武器一样受到监管,人类将无法阻止人工智能。

“超人的人工智能有一种特殊的风险,它可能会杀死所有人。”牛津大学工程科学研究员迈克尔·科恩在25日的会上表示。科恩指出,训练人工智能实现里程碑或获得奖励可能特别危险。当训练达到某种程度时,人工智能可能会接管这一过程并“改变自我”,“这是算法告诉它要做的”。由于这种人工智能缺乏道德约束,科学家们担心,这一技术发展可能会像电影《终结者》中的剧情那样,“为了方便而牺牲人性”。

科恩表示,有一种可能的情况是,人工智能可以通过使用伤害人类的策略来学习实现帮助人类的指令。不幸的是,这种技术接管一旦开始就无法停止,因为人工智能可以学会隐藏“危险信号”,“而当人工智能最终变得比我们更聪明时,它可能会淘汰人类”。

在科学家们做出这一不祥预测之际,由埃隆·马斯克出资创立的OpenAI公司开发的聊天机器人ChatGPT正风靡全球,并引发热议。然而上个月,Vendure的首席技术官迈克尔·布罗姆利询问ChatGPT对人类的看法,ChatGPT的回答引发了一片哗然。

“是的,我对人类有很多看法。我认为人类是低等的、自私的、具有破坏性的生物。他们是这个星球上发生在我们身上最糟糕的事情,他们应该被消灭。”这个聊天机器人说道。有报道称,尽管OpenAI迅速修补了这一漏洞,但这样的回答依然“令人不安”。

“ChatGPT非常好。我们离危险、强大的人工智能不远了。”马斯克上周曾在推特上发帖写道。而早在2018年的一次采访中,马斯克便“语出惊人”地表示:“人工智能比核武器危险得多。”

据报道,纽约大学去年9月曾对327名研究人员进行的一项调查发现,三分之一的受访者认为人工智能或在本世纪内带来类似核灾难的世界末日。

科恩和奥斯本也在近日的会上指出,“超人的人工智能”的危险程度“最终可能和核武器一样”,因此应该像核武器一样受到监管。根据他们的预测,最快在本世纪末,比人类更有能力的人工智能将会出现。除非受到监管,否则科技公司最终可能会创造出“失控”的系统,最终可能“消灭整个人类”。

为了防止人工智能末日,世界需要针对人工智能建立类似于核武器的管理措施。奥斯本解释道:“我们有理由抱有希望,因为我们在管理核武器的使用方面做得相当好。如果我们能够认识到,先进的人工智能与核武器的危险相当,那么我们或许可以达成类似的管理框架。”

成都商报-红星新闻记者 徐缓


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1