鞭牛士报道,5月28日消息,据外电报道,OpenAI 周二表示,在 5 月中旬解散了之前的监督委员会后,它成立了一个由高管领导的安全委员会。
该公司表示,新委员会将负责向 OpenAI 董事会推荐有关 OpenAI 项目和运营的关键安全决策。
新委员会成立的消息传出之际,ChatGPT虚拟助手的开发商宣布已开始训练其下一个前沿模型。
该公司在一篇博客文章中表示,预计最终的系统将使我们在通往 AGI(通用人工智能)的道路上迈向更高水平的能力,AGI 是一种与人类一样聪明甚至更聪明的人工智能。
据博客文章称,除了奥特曼之外,安全委员会还将包括布雷特·泰勒、亚当·德安杰洛和妮可·塞利格曼,他们都是 OpenAI 董事会成员。
在成立新的监督团队之前, OpenAI 解散了之前专注于人工智能长期风险的团队。在此之前,两位团队负责人——OpenAI 联合创始人 Ilya Sutskever 和关键研究员 Jan Leike均宣布离开这家微软支持的初创公司。
雷克本月早些时候写道,OpenAI 的安全文化和流程已经让位于闪亮的产品。针对雷克的离职,奥尔特曼在社交媒体平台 X 上表示,他对雷克的离开感到难过,并补充说 OpenAI还有很多事情要做。
博客文章称,在接下来的 90 天内,安全小组将评估 OpenAI 的流程和保障措施,并与公司董事会分享他们的建议。OpenAI 将在稍后提供有关其采纳建议的最新消息。
随着 ChatGPT 等应用所依赖的庞大模型变得越来越先进,人工智能安全已成为更大争论的焦点。人工智能产品开发人员还想知道 AGI 何时会到来,以及它会带来哪些风险。