当前位置:首页|资讯|ChatGPT|OpenAI|阿尔特曼

ChatGPT之父警告:AI可能灭绝人类,350名AI权威签署联名公开信

作者:好像该干饭了发布时间:2023-05-31

原标题:ChatGPT之父警告:AI可能灭绝人类,350名AI权威签署联名公开信

5月30日(报道日),350位AI专家发布联名公开信,警告AI发展速度过快,缺乏监管,可能会危及人类生存。这些专家包括OpenAI首席执行官Sam Altman,DeepMind首席执行官Demis Hassabis,以及著名的“人工智能之父”Geoffrey Hinton和Yoshua Bengio。

联名信中只有一句话:“降低人工智能造成灭绝的风险应该与其他社会规模的风险(如大流行病和核战争)一样,成为全球优先考虑的事项。”虽简短,但意义重大。这表明人工智能发展速度过快,社会难以跟上,监管严重滞后,如果不采取行动,可能会对人类生存构成威胁。

事实上,此前Sam Altman就提出应设立类似国际原子能机构的国际组织来规范AI发展。他呼吁国际AI大厂加强合作,政府加强监管。早在3月,一封公开信就呼吁AI实验室暂停6个月研发比GPT-4更先进的AI模型,以避免失控。该信得到包括2018年图灵奖得主Yoshua Bengio在内上千人支持。

公开信指出,现代AI系统在许多领域已经达到与人类相当的水平。我们必须问:是否应让机器传播宣传和谎言?是否应将所有工作自动化,包括那些令人满意的工作?是否应发展可能最终超越人类的非人智慧?是否应冒失控文明的风险?

这些决定不应由科技公司主导。只有在确信AI系统影响积极、风险可控时,才应开发更强大的AI。这需要充分理由和独立审查。OpenAI最近声明,在训练更强大AI前,应限制计算增长速度,获得独立审查。联名信同意此观点,并呼吁AI实验室停止6个月内研发比GPT-4更先进的AI系统。

政府应要求并监督这一暂停。在此期间,AI实验室和专家应共同制定安全开发协议,由独立专家审核。这不意味停止AI进步,只是避免盲目追求更大规模、难以预测和控制的黑箱模型。

AI发展应关注提高现有系统的准确性、安全性、可解释性、透明度等。AI开发者须与政策制定者合作,加速AI治理,包括建立专门的监管机构;监督高能力AI系统和大规模计算;区分真假和追踪模型泄漏的系统;完善审计认证制度;为AI造成损害设立责任机制;加大公共资金支持AI安全研究;应对AI带来的经济社会影响。

人类可以在AI帮助下拥有美好未来。成功开发强大AI后,我们可以享有“AI盛夏”,将其明确用于造福人类,让社会适应。在其他可能造成灾难的技术面前,社会曾按下暂停键。AI也不例外。让我们享受漫长的AI盛夏,而非毫无准备迎来秋天


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1