近日,数百位AI领域的领袖签署了一封只有一句22字话语的联名信:“减轻人工智能灭绝的风险应该与流行病和核战争等其他社会规模的风险一起成为全球优先的事项。”警告人工智能对人类构成的生存威胁。
SamAltman图片来源:THEASSOCIATEDPRESS
据媒体报道,这封公开信由350多名研究人员和高管签署,其中包括OpenAI首席执行官SamAltman,和谷歌DeepMind人工智能部门的38名成员。
这封信被发布在一个非营利组织人工智能安全中心(CenterforAISafety)的网站上。该网站表示:人工智能专家、记者、政策制定者和公众越来越多地讨论人工智能带来的重要和紧迫的广泛风险。即便如此,也很难表达对先进人工智能的一些最严重风险的担忧。下面的简洁声明旨在克服这一障碍并展开讨论。它还旨在为越来越多的专家和公众人物提供常识,他们也认真对待先进人工智能的一些最严重风险。
马斯克
值得一提的是,这些签署者当中,不少人参与了3月份有马斯克参与的那份“暂停比GPT-4更智能的AI开发6个月”的公开信。
目前,ChatGPT等聊天机器人的广泛应用引发了人们的担忧,不少人觉得,人工智能可能会使大量基于知识的工作过时,也有不少人觉得,它对人类在各方面的威胁越来越明显。
OpenAI首席执行官SamAltman在最近的一篇博客文章中建议,全球可能需要一个国际组织来检查AI系统,测试其是否符合安全标准并限制其使用——类似于建立国际原子能机构来管理核技术。
不过,就像两封公开信受到的一些质疑一样,不少业内人士觉得SamAltman将AI与核技术进行比较是危言耸听。前白宫技术顾问TimWu表示,将AI构成的威胁比作核后果是错误的,并且通过将公众的焦点从它可能已经造成的危害上转移到对它进行控制的工具的讨论上也是不对的。“人工智能有明显的危害,我们已经看到人工智能的滥用,我认为我们应该对这些采取一些措施,但我不认为它们已经被证明像核技术一样危险。”Wu说。
“转载请注明出处”