当前位置:首页|资讯|人工智能|ChatGPT|大语言模型

牛津大学教授Michael Wooldridge:人工智能的危险和前景

作者:爱思唯尔科研医学服务发布时间:2024-04-29

原标题:牛津大学教授Michael Wooldridge:人工智能的危险和前景

像 ChatGPT 这样的人工智能大语言模型的到来引发了学术界、政府、企业和媒体的争论。讨论范围从它们对就业和政治的影响到对它们可能对人类构成的生存威胁的猜测。

Michael Wooldridge是牛津大学计算机科学教授,他将这些大型语言模型 (LLM) 的出现描述为“奇怪的东西被传送到地球,突然使人工智能中的事情成为可能,而这些事情直到三年前还只是哲学辩论。”对于Michael来说,人工智能潜在的生存威胁被夸大了,而它们已经造成的实际(甚至是致命的)伤害却被低估了。他们提供的潜力是诱人的。

Michael Wooldridge

Q:人工智能的真正风险是什么?

A: Michael表示对生存威胁的担忧不切实际

“就人工智能的风险而言,你不必担心 ChatGPT 爬出计算机并接管世界。如果您深入了解 ChatGPT 的内部结构并了解其工作原理,您就会明白情况并非如此。在所有关于生存威胁的讨论中,没有人给我一个合理的场景来说明人工智能如何可能成为一种生存风险。”

相反,Michael认为对这个问题的关注会分散注意力,会“吸走房间里的所有空气”,并让我们没有空间谈论其他任何事情——包括更直接的风险

Michael概述了一种情况,患有医学症状的青少年可能会发现自己太过尴尬而无法去看医生或与护理人员讨论这些问题。在这种情况下,该青少年可能会向LLM寻求帮助,但得到的建议质量很差。

“负责任的医疗服务提供者会尝试拦截此类询问,并说:‘我不提供医疗建议。’但绕过这些护栏并不难,而且当技术激增时,将会有很多不负责任的提供商,”Michael说。“人们会因此而死亡,因为人们发布的产品没有确保具有适当的保护。”

Michael认为,这种情况——技术在没有护栏的情况下激增——是人工智能的主要风险。人工智能本身不会对我们造成伤害,但滥用人工智能的人可能而且确实会造成伤害

“英国政府一直非常积极地关注人工智能的风险,他们总结了一种被称为“狂野西部”的场景,”他说。在这种情况下,人工智能的发展方式是每个人都可以在没有护栏的情况下获得LLM,然后就变得无法控制。

他说:“它将强大的工具交给了潜在的坏人,他们利用它来做坏事。”

Q:巨大的挑战是什么?我们该如何应对?

A: Michael将挑战总结为:“我们如何支持那些想要在这一领域进行创新的人们,同时避免这项技术扩张到无法治理的地步?”

目前还没有立即可用的简单答案,但Michael指出,社交媒体公司可以采取更多措施来实施发现严重错误信息并防止其传播的系统。“通常的反驳意见是,如果你试图解决这个问题,你就是在扼杀言论自由,”他说。“但当明显的谎言被传播时,我认为社交媒体公司有义务采取更多行动。”

在防止伤害和促进创新之间找到平衡至关重要,因为正如Michael指出的那样,LLM对于具有巨大潜力的研究人员来说是一个令人着迷的领域:

“这些模型的出现就像是一个扭曲了整个计算结构的超大质量黑洞。所有的科学都被这个巨大的存在所感撼动。”

Michael指出,他所在大学系的所有 10 个研究小组都受到了LLM进步的影响:“在某些情况下,它重写了他们的研究议程;在另一些情况下,他们会因为工作不再相关而结束。”

对于Michael个人来说,多智能体系统特别令人感兴趣,其中具有竞争或互补目标的多个人工智能系统相互交互,以解决单个系统无法解决的问题

“这真的让我很痴迷,”他说。“大型语言模型代表了一个非常诱人的机会——让它们相互交互而不一定用人类语言进行交互的想法。

“例如,一个想法是你可以通过拥有本质上处于相互竞争场景的大型语言模型处理幻觉(指由语言模型提供的答案看似合理但完全错误)。一个模型提出文案,另一个模型则对其进行批评,这个过程的最终结果是他们就事实陈述达成某种一致。”

面对这些人工智能模型所代表的巨大变化,Michael认为科学传播至关重要。他担任爱思唯尔出版的Artificial Intelligence(《人工智能》)杂志联合主编,非常擅长在研究人员之间交流研究成果。

“在围绕人工智能的所有讨论中,我认为尝试让公众了解人工智能是什么是至关重要的。这是科学的一部分。如果我接受公共资助我的工作,如果这成为人们正在讨论的事情,我就有义务站起来谈论它。”

Michael特别谈到了如何解决公众对人工智能有自己的意图或考虑的误解:

“最大的误解之一是,人们想象屏幕的另一边有一个‘思想’,但实际上根本不存在。人工智能不会思考你的问题。当您了解它们的工作原理时,即使是在肤浅的层面上,您也会意识到这只是一种统计算法。这是一个非常酷且令人印象深刻的统计算法,但它不会思考或考虑。”

这种误解可能会因人工智能相关的语言而加剧——它“寻找”信息,它可能被“欺骗”,或者它“想要”提供某种答案。

“我们使用这种语言是因为它很方便,”Michael说,“但将人工智能拟人化的危险在于,我们对它的解读远多于实际情况。”

尽管存在着激烈的、灾难性的讨论、误解和潜在的错误信息,但Michael从研究的角度对人工智能充满热情:

“这是一个非常有趣的发展过程。我们拥有非常强大的工具,而且我们才刚刚开始探索它们的维度。这些工具很奇怪,我们不明白它们为什么会在某些方面出错以及它们的功能是什么。绘制出这一点是一个令人着迷的旅程。”

Michael Wooldridge

Michael Wooldridge是牛津大学计算机科学教授。他从事人工智能研究已有 30 多年,并发表了 400 多篇有关该主题的科学文章。他是计算机协会 (ACM)、人工智能促进协会 (AAAI) 和欧洲人工智能协会 (EurAI) 的院士。2014-16 年,他担任欧洲人工智能协会主席,2015-17 年,他担任国际人工智能联合会议(IJCAI)主席。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1