当前位置:首页|资讯|OpenAI|AGI|人工智能

OpenAI成立新安全监督团队,并开始训练新模型

作者:鞭牛士发布时间:2024-05-28

鞭牛士报道,5月28日消息,据外电报道,OpenAI 周二表示,在 5 月中旬解散了之前的监督委员会后,它成立了一个由高管领导的安全委员会。

该公司表示,新委员会将负责向 OpenAI 董事会推荐有关 OpenAI 项目和运营的关键安全决策。

新委员会成立的消息传出之际,ChatGPT虚拟助手的开发商宣布已开始训练其下一个前沿模型。

该公司在一篇博客文章中表示,预计最终的系统将使我们在通往 AGI(通用人工智能)的道路上迈向更高水平的能力,AGI 是一种与人类一样聪明甚至更聪明的人工智能。

据博客文章称,除了奥特曼之外,安全委员会还将包括布雷特·泰勒、亚当·德安杰洛和妮可·塞利格曼,他们都是 OpenAI 董事会成员。

在成立新的监督团队之前, OpenAI 解散了之前专注于人工智能长期风险的团队。在此之前,两位团队负责人——OpenAI 联合创始人 Ilya Sutskever 和关键研究员 Jan Leike均宣布离开这家微软支持的初创公司。

雷克本月早些时候写道,OpenAI 的安全文化和流程已经让位于闪亮的产品。针对雷克的离职,奥尔特曼在社交媒体平台 X 上表示,他对雷克的离开感到难过,并补充说 OpenAI还有很多事情要做。

博客文章称,在接下来的 90 天内,安全小组将评估 OpenAI 的流程和保障措施,并与公司董事会分享他们的建议。OpenAI 将在稍后提供有关其采纳建议的最新消息。

随着 ChatGPT 等应用所依赖的庞大模型变得越来越先进,人工智能安全已成为更大争论的焦点。人工智能产品开发人员还想知道 AGI 何时会到来,以及它会带来哪些风险。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1