出品 | 搜狐科技
编辑 | 梁昌均
今年3月底,在以ChatGPT为代表的大语言模型正如火如荼的时候,一家美国网站突然爆出一封名为“暂停巨型AI实验”的公开信,给这股大模型浪潮浇了一盆冷水。
这封信表示,人工智能陷入了失控的竞赛,使得它出现了巨大的风险。因此呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月,如果不能迅速暂停,政府应介入。
更为引发关注的则是,特斯拉CEO埃隆·马斯克(Elon Reeve Musk)、苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)、深度学习之父杰弗里·辛顿(Geoffrey Hinton)、图灵奖得主约书亚·本希奥(Yoshua Bengio)等上千名科技大佬均在这封信上签了字。
发出这封信的网站是美国非盈利机构未来生命研究所,其创始人Max Tegmark是一名物理学家和宇宙学家,同时担任麻省理工学院人工智能与基础交互研究中心教授。在6月9日开幕的2023智源大会上,Max Tegmark现场解释了发出这封信的原因,并带来《使人工智能可控》的演讲。
他表示,AI可以帮助实现可持续发展目标,如果能够正确控制它,甚至可能治愈所有疾病,创建一个让每个人都能过上健康、富裕和充满激励的生活的未来。“但是我们面临的问题是,我们真的能控制人工智能吗?”
“我认为答案是肯定的,但是我们需要对其进行更多、更全面的研究。”Max Tegmark说。“这也是我提出暂停人工智能研究六个月的原因,并不是因为我反对人工智能,相反我是因为看到了其潜力和可能带来的改变,才想要我们更谨慎、更负责任地进行研究。”
他认为,如果不加控制,人工智能可能对全人类的文明构成威胁。“我们不能把这看作是一场军备竞赛,而更像是一场自杀竞赛,谁先得到无法控制的超级智能并不重要,因为最后每个人都会受到影响。”
那么该如何控制人工智能,使其成为人类的助手而非对手?Max Tegmark认为,需要解决的主要问题有两个:一是如何使人工智能能真正地完成其主人想让它完成的任务,即对齐问题;二是如何是各种机构的动机是将人工智能用于好的事情,而不是坏的事情。
同时,还要考虑竞争性的风险。如果有一个组织开发出了超级智能AI,而其他组织尚未准备好对其进行有效管理,那么可能就面临一个全新的风险。因此必须确保在发展AI的过程中,所有的参与者都有共享的、明确的目标,那就是安全地使用AI,而不是仅仅追求速度。
Max Tegmark认为,在AI研究中需要在对齐问题和竞争性问题之间找到一个平衡,让所有人共同参与并享受AI的好处,同时避免任何潜在的风险。“人工智能是一把双刃剑,它既有巨大的潜力帮助我们解决世界上最困难的问题,也可能带来无法预测的后果。我们必须谨慎地前进,确保安全、有效地利用这一强大的工具。”
对于Yann LeCun(杨立昆)认为大型语言模型缺乏世界模型的问题,Max Tegmark对此并不认同。他以机械可解释性的进步为例,认为机这是一个有趣且有前景的领域,且与神经科学相比,机械可解释性要简单得多。
“尽管这个领域的研究者还很少,但是它的发展速度比传统的神经科学要快得多。我对此持乐观态度,如果更多的人加入这个领域,将能够以超出预期的速度取得进步。”Max Tegmark认为,可解释性不仅会带来可信任的人工智能,而且它将更有效率。
面对清华大学讲席教授、智能产业研究院(AIR)院长张亚勤提出的人工智能与生命3.0阶段的问题,Max Tegmark认为,随着科技的发展,人类成为自己的船长,成为自己命运的主人,这使得生命3.0(即AGI)成为非常鼓舞人心的想法。
张亚勤向Max Tegmark提问
“如果我们继续这一趋势,让更好的人工智能更接近生命3.0,我们可以做更多的事情,比如拥有不可思议的宇宙。”但他也表示,生命3.0会拥有很多选择,需要用生命3.0来引导未来,有同情心、有情感等,而不是某种完全无意识的僵尸机器。
在人工智能治理方面,Max Tegmark认为,目前为止,中国在监管人工智能方面做得最多,欧洲大概排在第二位,美国排在第三位。
此外,面对人工智能带来的对就业市场的冲击,Max Tegmark认为,年轻人需要重视基础知识,也需要关注整个人工智能领域正在发生的事情,因为在就业市场上,首先发生的不是人被机器取代,而是不使用人工智能的人将被使用人工智能的人取代。
“我对于未来人工智能系统的能力比Yann LeCun更乐观。如果我们全速前进,把更多的控制权从人类手中交给我们不了解的机器,结果将会非常糟糕,但我们不必这样做。”Max Tegmark最后表示,如果在机械可解释等方面努力,可以确保所有更强大的智能为人类工作,并用它来创造一个比科幻小说作家曾经梦想的更鼓舞人心的未来。