南都讯 记者李玲 正值全国网络安全宣传周,一份旨在防范化解人工智能安全风险的成果正式发布。9月9日,由全国网络安全标准化技术委员会制定的《人工智能安全治理框架》1.0版(以下简称《框架》),对外公开发布。
南都此前报道,在9月2日下午举行的网安周新闻发布会上,中央网信办网络安全协调局局长高林透露,计划在今年网安周高峰论坛主论坛上集中发布一系列标志性成果,其中就包括《人工智能安全治理框架》。
《框架》指出,人工智能系统设计、研发、训练、测试、部署、使用、维护等生命周期各环节都面临安全风险,既面临自身技术缺陷、不足带来的风险,也面临不当使用、滥用甚至恶意利用带来的安全风险。
《框架》尝试从内生(自身)安全和应用安全维度,对人工智能安全风险进行分类。在内生安全风险层面,主要面临模型算法安全风险、数据安全风险和系统安全风险。
以数据安全风险为例,《框架》指出,训练数据中含有虚假、偏见、侵犯知识产权等违法有害信息,或者来源缺乏多样性,导致输出违法的、不良的、偏激的等有害信息内容。训练数据还面临攻击者篡改、注入错误、误导数据的“投毒”风险,“污染”模型的概率分布,进而造成准确性、可信度下降。
为防范数据安全风险,《框架》提出完善人工智能数据安全和个人信息保护规范。针对模型算法安全风险,《框架》建议推进人工智能可解释性研究,构建负责任的人工智能研发应用体系。同时《框架》提出,强化人工智能供应链安全保障、风险威胁信息共享和应急处置机制,以更好地应对系统安全风险。
安全风险与技术应对措施、综合治理措施映射表。
在应用层面,《框架》按网络域、现实域、认知域、伦理域等四类安全风险进行划分。其中,网络域安全风险的一个表现在混淆事实、误导用户、绕过鉴权。
《框架》指出,人工智能系统及输出内容等未经标识,导致用户难以识别交互对象及生成内容来源是否为人工智能系统,难以鉴别生成内容的真实性,影响用户判断,导致误解。同时,人工智能生成图片、音频、视频等高仿真内容,可能绕过现有人脸识别、语音识别等身份认证机制,导致认证鉴权失效。
现实域安全风险的重要体现是,当人工智能与传统领域结合而产生的隐患。比如,《框架》提到人工智能可能被利用于涉恐、涉暴、涉赌、涉毒等传统违法犯罪活动,包括传授违法犯罪技巧、隐匿违法犯罪行为、制作违法犯罪工具等。
在认知域安全风险上,《框架》认为人工智能广泛应用于定制化信息服务,可能加剧“信息茧房”效应风险等。在伦理域安全风险上,则可能加剧社会歧视偏见、扩大智能鸿沟风险等。
针对这些安全风险,《框架》提出了多重治理措施。具体包括,实施人工智能应用分类分级管理;建立人工智能服务可追溯管理制度;加大人工智能安全人才培养力度;建立健全人工智能安全宣传教育、行业自律、社会监督机制;促进人工智能安全治理国际交流合作等。
如何建立人工智能服务可追溯管理?《框架》认为,对面向公众服务的人工智能系统,应通过数字证书技术对其进行标识管理。制定出台人工智能生成合成内容标识标准规范,明确显式、隐式等标识要求,全面覆盖制作源头、传播路径、 分发渠道等关键环节,便于用户识别判断信息来源及真实性。
《框架》还提供了人工智能安全开发应用指引,针对模型算法研究者、服务提供者、重点领域使用者、社会公众等不同角色,提出具体建议。
对社会公众而言,《框架》建议其选择信誉良好的人工智能产品,提高个人信息保护意识,避免在不必要的情况下输入敏感信息。同时,社会公众在使用人工智能产品时,应关注网络安全风险,避免人工智能产品成为网络攻击的目标。尤其是,注意人工智能产品对儿童和青少年的影响,预防沉迷及过度使用。
值得一提的是,《框架》指出,目前人工智能研发应用仍在快速发展,安全风险的表现形式、影响程度、认识感知亦随之变化,防范应对措施也将相应动态调整更新,需要各方共同对治理框架持续优化完善。