当前位置:首页|资讯

图灵奖得主Bengio、姚期智等科学家共同签署“AI安全国际对话威尼斯共识”

作者:福布斯发布时间:2024-09-20

9月18日晚消息,图灵奖得主Yoshua Bengio(约书亚·本吉奥),图灵奖得主、清华大学人工智能国际治理研究院学术委员会主席姚期智教授,清华大学讲席教授、人工智能国际治理研究院学术委员张亚勤、加州大学伯克利分校教授、清华大学人工智能国际治理研究院学术委员Stuart Russell(斯图尔特·罗素)等多位计算机科学领域的领军人物于9月5日至8日,出席了由AI安全国际论坛(Safe AI Forum)和博古睿研究院共同举办的第三届国际AI安全对话(International Dialogues on AI Safety)。

在为期三天的会议中,与会科学家们共同达成了一份具有重要意义的共识声明,其核心观点强调了AI安全作为“全球公共产品”的重要性,建议各国应将AI安全纳入学术与技术合作的核心领域。

为了应对可能到来的由高级人工智能系统引发的灾难性风险,科学家呼吁,国际社会应考虑启动以下三项工作程序:

应急准备协议与制度:通过这一机制,各国的安全监管部门可召集会议,合作制定并承诺实施模型注册和披露制度、事故报告机制、预警触发点及应急预案。

安全保障体系:当模型的能力超过特定阈值时,要求开发者为模型的安全性提供高度可信的论证。对于高性能的人工智能系统,随着它们的广泛应用,部署后的监控也将成为保障体系的关键组成部分。这些安全保障措施应接受独立审计。

全球人工智能安全和验证的独立研究:应通过技术开发,使各国能够确认开发者以及其他国家提出的与人工智能安全相关的声明是真实有效的。为了确保研究的独立性,这项研究应在全球范围内进行,并由多个国家的政府和慈善机构共同资助。

半年前,包括图灵奖得主Yoshua Bengio、Geoffrey Hinton(杰弗里·辛顿)、姚期智等在内的数十位的中外专家于3月18日在北京联合签署了由智源研究院发起的《北京AI安全国际共识》,涉及人工智能“风险红线”和“路线”两大块,其中“风险红线包含自主复制、改进”,“权力寻求”、“协助不良行为者”和“欺骗”四个部分。

去年3月,包括特斯拉首席执行官Elon Musk(埃隆·马斯克)、Yoshua Bengio在内的上千位人工智能专家和行业高管在一封公开信中,呼吁暂停训练比新推出的GPT-4模型更强大的人工智能系统至少6个月,理由是人工智能将对社会和人类构成潜在风险。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1