IT之家 7 月 24 日消息,OpenAI 首席执行官山姆・阿尔特曼(Sam Altman)本周二在 X 平台发布推文,表示在新一轮内部架构重组中,负责 AI 安全的主管亚历山大・马德里(Aleksander Madry)调岗,并将其重新分配到一个专注于人工智能推理的岗位。
阿尔特曼在推文中表示:“Aleksander 正在从事一个新的、非常重要的研究项目”。
阿尔特曼补充表示,OpenAI 高管华金・基诺内罗・坎德拉(Joaquin Quinonero Candela)和莉莉安・翁(Lilian Weng)将在此期间接管 Preparedness 团队。
OpenAI 安全团队简介
IT之家注:OpenAI 公司信任和安全部门主管戴夫・威尔纳(Dave Willner)于 2023 年 7 月离职之后,公司于同年 10 月将该部门拆分为 3 个团队:
安全系统(Safety Systems)团队:专注于高级人工智能模型和人工通用智能的安全部署,专注于减少对当前模型和产品(如 ChatGPT)的滥用。
超级对齐(Superalignment)团队:为该公司(希望)在更遥远的未来拥有的超级智能模型的安全性奠定基础
Preparedness 团队:负责绘制前沿模型的新风险,并对前沿模型进行安全评估,评估和减轻与人工智能相关的“灾难性风险”。
Aleksander 简介
该团队此前由 Aleksander 领导,帮助跟踪、评估、预测和防范由人工智能模型带来的灾难性风险,负责绘制前沿模型的新风险,并对前沿模型进行安全评估。
图源:Aleksander Madry LinkedIn
Aleksander 还是麻省理工学院可部署机器学习中心(Center for Deployable Machine Learning)的主任和麻省理工学院人工智能政策论坛(MIT AI Policy Forum)的教员联合负责人。
OpenAI 官方表示 Aleksander 在新岗位上仍将从事核心的人工智能安全工作。