参考消息网6月12日报道阿根廷布宜诺斯艾利斯经济新闻网近日发表题为《警钟响起:人工智能会危及人类吗?》的文章,作者是圣地亚哥·比林基斯,文章编译如下:
自从几个月前聊天生成预训练转换器(ChatGPT)上线以来,一个此前几乎无人问津的话题,变成了茶余饭后和朋友间闲聊的一部分,那就是,这项新技术会对教育、工作自动化或虚假信息传播等敏感领域产生什么影响?
随着讨论转向这些更常见的风险,由标志性人物埃隆·马斯克领导的1000多名专家和开发人员呼吁暂停人工智能(AI)研究进程,因为它“可能将人类置于危险之中”。
人工智能影响工作是一回事,它杀死我们所有人又是另一回事。简单的聊天怎么会有危险?
实际上,在人工智能研究界,这并不是一场新辩论:十多年来,该领域的许多人始终争论不休,虽然这听起来有些荒谬,但风险是真实存在的:人工智能的发展所带来的危险可以与核技术相比拟。当前的新鲜事在于,人工智能领域的主角们大声疾呼,要求暂停该领域开发至少6个月,而这些开发正是他们自己多年来一直在努力的方向。
从历史上看——与影响人类的大多数重大问题的发生情况一致——人工智能问题总是存在两个阵营。一个是埃隆·马斯克领导的“末日论”阵营——比尔·盖茨和斯蒂芬·霍金也站在这一边——警告这些发展的极端危险。2014年12月,在接受英国广播公司采访时,霍金曾高瞻远瞩,对这项技术的潜在破坏性影响直言不讳:“人工智能的发展将终结人类。”对面阵营则是“技术乐观主义者”,马克·扎克伯格是其中最引人注目的面孔。
尽管有些人认为马斯克的预测夸大其词,但任何对该领域的严肃分析都不应忽视一些已经开始响起的警报。
我们必将见证一场哥白尼式变革:在人类历史上,我们第一次离拥有真正强大的人工智能越来越近,它在多个方面的能力已经优于人类。但这种力量并不在于我们理解它是如何真正起作用的,而是在于试错法的启发式练习。如果我们将具有万亿个参数的神经网络放在一起并让它学习互联网上所有可用的大量文本,会发生什么?进行该测试的结果是日前由开放人工智能研究中心(OpenAI)实验室发布的GPT-4。
ChatGPT是我们许多人一直在与之交互的好工具,它只是GPT-4中功能强大但微不足道的一小部分。但是,即使在今天普通大众可以进行的有限使用中,它也显示出让大多数人感到困惑的能力。以家庭作业为例,如果您从未使用过ChatGPT写作业,我建议您今天就创建一个免费账户,看看它的可能性有多大。
但也存在不同意见。纽约大学名誉教授加里·马库斯发表了一篇长文,他在文中这样驳斥GPT-4的进步:“我认为它离全面人工智能还很远。发明的问题没有解决,可靠性也没有解决,复杂任务的规划也没有解决。”
人类的知识是建立在一个由假设、证据和错误组成的对话系统上的。但是,一旦有了某种发现,导致这种发展的原因就完全可以理解,这种机制保证了相对的可预测性。但随着人工智能的发展,情况就不是这样了。开发人员以某种方式“玩弄”了一个我们无法完全理解的复杂系统,并且正在产生令人震惊的结果。想象一下,他们给你一套化学试剂盒,里面有很多不同物质的试管,如果你知道其中一种物质有潜在的爆炸性,怎么会轻而易举地混合这些试剂?好吧,就人工智能而言,我们正处于这种情况:我们在不完全了解其潜力或影响的情况下混合了一些东西。
尤瓦尔·哈拉里是在马斯克推动的请愿书上签名的人之一,他前不久在《纽约时报》上发表的一篇文章中用一个听起来更熟悉的比喻解释了这种风险的规模:“想象一下,当你要登机时,建造这架飞机的工程师中有一半人告诉你,飞机坠毁并且你和所有机组人员死亡的几率是10%?你还会办理登机手续吗?”
在石器时代,我们不知道火是什么。但即使没有这些知识,我们的祖先也知道如何燃起和熄灭它,而且一旦点燃它就会非常有用,但也会意外引发无法控制的火灾。在很大程度上,我们就像史前人类:我们在不完全理解其本质的情况下操纵技术发展。人工智能是一个复杂的系统,而且它不是火,它失控的速度比我们想象的要快得多。(编译/韩超)