当前位置:首页|资讯|OpenAI|ChatGPT|人工智能

OpenAI呼吁超级智能需要被监管

作者:何家杰发布时间:2023-07-05

原标题:OpenAI呼吁超级智能需要被监管

ChatGPT的创建者OpenAI发出了对超级智能监管的发人深省的呼吁,并与核能的监管进行了类比。在最近的一篇博客文章中,OpenAI强调了人工智能快速发展可能产生的影响以及这个不断变化的领域治理的紧迫性。该公司表示,预计人工智能系统将在未来十年内超越人类的专业知识和商业生产力。OpenAI的SamAltman、GregBrockman和IlyaSutskever强调:“我们必须解决当今人工智能技术的风险,但超级智能需要特殊的处理和协调。

超级智能是指在整体上超越人类智能或在特定领域超越人类智能的实体。作者认为,超级人工智能将拥有前所未有的能力,无论是积极的还是消极的。超级智能的发展是必然的,同时也伴随着风险。OpenAI确定了在超级智能的成功发展中发挥重要作用的三个关键思想。其中包括协调重大开发工作、创建类似于国际原子能机构(IAEA)的国际机构以及促进安全技术能力的发展。虽然OpenAI承认人工智能系统存在风险,但他们认为这些风险与其他互联网相关技术的风险相当。奥特曼、布罗克曼和苏茨克弗还表示,他们对社会当前管理这些风险的方法充满信心。然而,他们主要担心的是未来的系统将比以往任何时候都更加强大。“相比之下,我们对这些系统的关注点是它们将拥有超越任何先前技术的能力,涉及与价值观、安全性和控制的一致性相关的挑战,”博客文章中写道。人工智能系统需要公共监督和民主控制。他们还解释了为什么在OpenAI开发这项技术:为了创造一个更美好的世界,并避免阻碍其发展的风险。

人工智能可以在教育、创造力、生产力和整体经济增长等各个领域提供帮助。OpenAI认为,阻止超级智能的诞生是困难且危险的。超级智能带来了显着的好处,而且成本每年都在下降,越来越多的研究人员正在该领域开展工作,作为公司技术路线图的一部分。AI科技企业家、FarcanaLabs联合创始人IlmanShazhaev对此有一些评论。预测表明,如果管理不当,超级智能可能成为人类有史以来最具破坏性的发明之一。然而,由于该技术尚未完全开发,关于该技术部署的讨论仍然存在分歧。基于对预测的恐惧而试图停止其发展可能会剥夺人类探索新技术的机会。Shazhaev表示:“OpenAI的去中心化治理方式有助于确保其广泛的安全性。通过适当的监管,系统可以在构成威胁时关闭。如果这些安全措施能够得到落实,超级智能可能会成为一项值得探索的创新。”在讨论对人工智能超级智能和拟议监管的看法时,OpenAI似乎促进了知情讨论并吸收了各种观点。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1