10月27日消息,美国当地时间周四,人工智能研究公司OpenAI宣布组建新团队,以评估和减轻与人工智能相关的“灾难性风险”。
OpenAI在周四的声明中表示,这个新团队名为Preparedness,其主要任务是“跟踪、评估、预测和保护”人工智能造成的潜在重大问题,包括核威胁。
此外,该团队将致力于减轻“化学、生物和放射性威胁”,以及人工智能的“自主复制”行为。Preparedness团队将解决的其他风险包括人工智能欺骗人类的行为,以及网络安全威胁。
OpenAI在更新中写道:“我们相信,前沿人工智能模型的能力将超越目前最先进的模型,有可能造福全人类。不过,它们也构成了越来越严重的风险。”
麻省理工学院可部署机器学习中心主任亚历山大·马德里(Aleksander Madry)将领导Preparedness团队。
OpenAI指出,Preparedness团队还将制定和维护一项“风险知情的开发政策”,该政策将概述公司在评估和监控人工智能模型方面所做的工作。
OpenAI首席执行官萨姆·奥特曼(Sam Altman)曾警告过人工智能可能引发的灾难性事件。今年5月,奥特曼和其他著名人工智能研究人员发表了一份简短声明,称“减轻人工智能带来的灭绝性风险应该是全球的优先事项。”
此前在伦敦接受采访时,奥特曼还建议各国政府应该像对待核武器一样,“认真对待”人工智能。