本报记者 曲忠芳 李正豪 北京报道
6月6日,国际非营利组织“人工智能安全中心”(Center for AI Safety,以下简称“CAIS”)主任丹·亨德里克斯通过社交媒体表示,上周已有数百名顶级人工智能科学家和知名公众人物签署了一份关于人工智能风险的公开声明,该声明由CAIS撰写,其内容非常简短,即“降低人工智能的灭绝风险,应当与流行病、核战争等其他大规模的风险一起纳入全球优先事项”。
《中国经营报》记者从CAIS官网获悉,该份公开声明的签署者来自美国、中国、俄罗斯、巴西、韩国等20多个国家,涵盖人工智能专家、哲学家、法律专家、企业家、新闻记者、政治人物等,其中包括2018年图灵奖获得者、被称为“深度学习三巨头”中的杰弗里·辛顿 、约书亚·本吉奥,微软联合创始人比尔·盖茨、谷歌DeepMind公司CEO戴米斯·哈萨比斯、OpenAI公司CEO山姆·奥特曼等,来自中国的清华大学航空航天研究院院长张亚勤、中国科学院自动化研究所教授曾毅等也在签名者行列中。
值得注意的是,随着今年AI大模型及生成式AI的火爆,AI的安全风险也越来越被广泛地讨论与重视。就在今年3月底,非营利组织“未来生命研究所”发出一封“呼吁所有AI实验室立即暂停对比GPT-4更强大的AI系统的训练至少6个月”的公开信,特斯拉、Space X、推特等公司CEO埃隆·马斯克,杰弗里·辛顿、约书亚·本吉奥等均在联合署名者名单中。
在丹·亨德里克斯创建的CAIS看来,人工智能的典型风险集中表现在几个方面:武器化——如将深度学习用于空战、用机器学习来制造化学武器等;生成大量错误信息——甚至产生一些有说服力的、带有任何偏见的内容从而引发强烈的情绪反应,导致激化矛盾、阻碍道德进步;未来先进的AI系统产生意想不到的恶意行为,人类可能会失去对AI的控制等等。丹·亨德里克斯援引一项民意调查称,约61%的美国人认为人工智能威胁人类的未来,人类必须解决各种各样的人工智能风险。CAIS指出,人工智能的“风险”包括错误信息、武器化、任意偏见、网络攻击等,“灭绝”是未来先进的人工智能系统所带来的最重要且紧迫的风险,因此CAIS在公开声明中呼吁将人工智能的灭绝风险列入世界上最重要的问题。
“人工智能不应该是一场军备竞赛。想象一群人站在薄冰覆盖的海上,在遥远的海岸,他们看到了金银财宝。有些人可能会想冲刺,但他们会冒着破冰且跳入冰冷海水的风险。在这种情况下,即使是自私的人也应该谨慎行事。”丹·亨德里克斯如是表示。
对于CAIS的这份声明,英国首相里希·苏纳克率先在个人社交平台转发并表示,英国政府正在非常仔细地研究这一问题。与此同时,他还透露,前不久他已经“向AI企业强调了设置防护措施以确保AI开发安全可靠的重要性”。此外,6月5日据路透社报道,欧盟委员会副主席维拉·乔罗娃公开表示,向包括谷歌、微软、Meta、TikTok等超过40家科技企业要求,检测通过AI生成的文本、图片和视频,并且向用户提供明显的标识。乔罗娃称,此举是欧盟委员会打击虚假信息工作的重要内容。另据《华尔街日报》报道,5月23日,美国政府正在寻求制定一项国家人工智能战略,以防范错误信息和该技术带来的其他潜在问题,目前正在向公众征集意见。种种迹象表明,AI新技术带来的风险与挑战已越来越引起各个国家和地区政策法律制定者的关注与重视。
在对生成式AI的监管规范方面,国内同样也走在国际前列。今年4月11日,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》,向公众征求意见的时间窗口已于5月10日结束。该文件中明确生成式AI应遵循的合规要求,重点强化了个人信息保护的相关要求,明确个人信息处理者的法定责任和义务,还要求生成式AI产品或服务建立评估备案、实名制、投诉处理等机制,丰富了包括人工标注、防沉迷、内容标识等管理措施,并且规定了相应的处罚措施。
不难预测,未来一段时间,AI大模型及各种新应用、新产业火爆发展的同时,AI由此带来的风险也会更多地被重视,通过立法立规来约束技术边界、强化监管和治理也将成为国际范围内的常态。
(编辑:吴清 校对:燕郁霞)