鞭牛士 12也19日消息,OpenAI周一发布了名为“准备框架”(Preparedness Framework)的指导方针,并强调这套指南仍处于测试阶段。其中值得关注的一条规则是,即使CEO等公司领导层认为AI模型是安全的,董事会也可以选择推迟发布。
据悉,该团队由麻省理工学院人工智能教授亚历山大・马德里 (Aleksander Madry) 领导,团队每月将向一个新的内部安全咨询小组发送报告,随后小组将对其进行分析,并向OpenAI首席执行官萨姆·奥尔特曼和董事会提交建议。奥尔特曼和公司高层可以根据这些报告决定是否发布新的AI系统,但董事会有权撤销这一决定。