近日,OpenAI 正在组建一个新团队,以减轻与人工智能相关的“灾难性风险”。OpenAI在周四的更新中表示,准备团队将“跟踪、评估、预测和防范”人工智能引起的潜在重大问题,包括核威胁。
该团队还将努力减轻“化学、生物和放射性威胁”,以及“自主复制”或人工智能自我复制的行为。准备团队将解决的其他一些风险包括人工智能欺骗人类的能力以及网络安全威胁。
据铋读网了解,OpenAI 在更新中写道:“我们相信,前沿人工智能模型将超越目前最先进的现有模型的能力,有潜力造福全人类。” “但它们也带来了越来越严重的风险。”
麻省理工学院可部署机器学习中心主任亚历山大·马德里 (Aleksander Madry)目前正在休假,他将领导准备团队。OpenAI 指出,准备团队还将制定和维护“风险知情的开发政策”,该政策将概述公司正在采取哪些措施来评估和监控人工智能模型。
OpenAI 首席执行官 Sam Altman 此前曾警告过人工智能可能引发灾难性事件。今年 5 月,Altman 和其他著名人工智能研究人员发表了一份 22 个字的声明,称“减轻人工智能灭绝的风险应该成为全球优先事项。” 在伦敦接受采访时,奥特曼还建议各国政府应该像对待核武器一样“认真”对待人工智能。