【CNMO新闻】OpenAI开发的ChatGPT大火以后,这家公司却警告未来的人工智能可能会摧毁人类。
近日,OpenAI联合创始人伊利亚·苏斯克维尔(Ilya Sutskever)和对齐团队负责人简·莱克(Jan Leike)在一篇博客文章中警告称:“超级智能的巨大力量可能……导致人类被剥夺权力,甚至人类灭绝。目前,我们还没有一个解决方案来操纵或控制一个潜在的超智能人工智能,并防止它失控。”
他们认为,超智能人工智能可能在这个十年到来。人类将需要比目前更好的技术来控制超智能人工智能,因此需要在所谓的“对齐研究”(alignment research)方面取得突破,该研究的重点是确保人工智能对人类有益。
OpenAI表示,该公司计划投入大量资源,创建一个新的研究团队——名为超级对齐团队,以确保其人工智能对人类来说是安全的,最终使用人工智能来监督自身。OpenAI想要使用人类反馈来训练AI系统,训练AI系统辅助人类评估,然后最终训练AI系统进行实际的对齐研究。
但有人对该计划提出反对,他就是人工智能安全倡导者康纳·莱希(Connor Leahy)。他称:“在构建人类水平的智能之前,你必须先解决对齐问题,否则默认情况下你无法控制它。我个人认为这不是一个特别好的或安全的计划。”