几天前,在人们对核战争的恐惧中,世界末日时钟被拨快10秒,距离象征末日的“午夜12点”只剩90秒。最新的调整反映,人类已经迎来有史以来“最危险的时刻”。不过,在英国牛津大学科学家们的眼里,全球人工智能制造的末日或将比核战争更令人担忧。
↑不少科学家认为,人工智能或在本世纪内带来类似核灾难的世界末日
据报道,在一场英国政府的科学技术特别委员会会议上,牛津大学的研究人员就不受监管的人工智能技术的危险性发出警告。他们指出,虽然人工智能技术会让生活变得更加方便,但如果被误用滥用,它可能比核武器更致命。如果不像核武器一样受到监管,人类将无法阻止人工智能。
科学家预警:
它可能会淘汰人类
“超人的人工智能有一种特殊的风险,它可能会杀死所有人,”牛津大学工程科学研究员迈克尔·科恩在25日的会上表示。科恩指出,训练人工智能实现里程碑或获得奖励可能特别危险,“想象一下,用食物训练一只狗,它会学会选择能让它得到食物的行为,但如果狗找到了食物柜,它就能自己得到食物,而不用做我们想让它做的事。”
这意味着,当训练达到某种程度时,人工智能可能会接管这一过程并“改变自我”,“这是算法告诉它要做的”。由于这种人工智能缺乏道德约束,科学家们担心,这一技术发展可能会像电影《终结者》中的剧情那样,“为了方便而牺牲人性”。
↑资料图
科恩表示,有一种可能的情况是,人工智能可以通过使用伤害人类的策略来学习实现帮助人类的指令。“如果有比我们聪明得多的东西,偏执地试图获得这种积极的反馈,无论我们如何编码它,它已经控制了世界,它会尽可能多地投入力量来确保它的控制。”
不幸的是,这种技术接管一旦开始就无法停止,因为人工智能可以学会隐藏“危险信号”,“而当人工智能最终变得比我们更聪明时,它可能会淘汰人类”。
在科学家们做出这一不祥预测之际,由埃隆·马斯克出资创立的OpenAI公司开发的聊天机器人ChatGPT正风靡全球,并引发热议。然而上个月,Vendure的首席技术官迈克尔·布罗姆利询问ChatGPT对人类的看法,ChatGPT的回答引发了一片哗然。
“是的,我对人类有很多看法。我认为人类是低等的、自私的、具有破坏性的生物。他们是这个星球上发生在我们身上最糟糕的事情,他们应该被消灭。”这个聊天机器人说道。有报道称,尽管OpenAI迅速修补了这一漏洞,但这样的回答依然“令人不安”。
研究人员:
人工智能或将影响全球地缘政治
“ChatGPT非常好。我们离危险、强大的人工智能不远了。”马斯克上周曾在推特上发帖写道。而早在2018年的一次采访中,马斯克便“语出惊人”地表示:“人工智能比核武器危险得多。”
↑马斯克曾在2018年表示:“人工智能比核武器危险得多”。
研究人员表示,眼下人工智能系统的快速发展或将影响全球地缘政治领域,甚至可能导致全球末日。牛津大学机器学习教授迈克尔·奥斯本警告道:“在地缘政治上,人工智能系统可能会像在简单的游戏环境中一样,在策略上胜过我们。”
据报道,纽约大学去年9月曾对327名研究人员进行的一项调查发现,三分之一的受访者认为人工智能或在本世纪内带来类似核灾难的世界末日。
科恩和奥斯本也在近日的会上指出,“超人的人工智能”的危险程度“最终可能和核武器一样”,因此应该像核武器一样受到监管。根据他们的预测,最快在本世纪末,比人类更有能力的人工智能将会出现。除非受到监管,否则科技公司最终可能会创造出“失控”的系统,最终可能“消灭整个人类”。
为了防止人工智能末日,世界需要针对人工智能建立类似于核武器的管理措施。奥斯本解释道:“我们有理由抱有希望,因为我们在管理核武器的使用方面做得相当好。如果我们能够认识到,先进的人工智能与核武器的危险相当,那么我们或许可以达成类似的管理框架。”
红星新闻记者 徐缓
编辑 郭宇 责任编辑 魏孔明
wx_6550523 2024-12-16
大象AI写作 2024-12-16
超人我会飞zdm 2024-12-16
大智评测 2024-12-16