《生成式人工智能服务管理暂行办法》(下称“暂行办法”,全文链接见文末)终于公布,为面向公众的生成式人工智能的本土的创新创业,划定了更明确的边界,更柔和的治理,更积极的基调。
今年4月11日,国家网信办公开征求意见。5月10日,反馈截止。5月23日,网信办会议审议通过。此后,经国家发改委、教育部、科技部、工信部、公安部与广电总局同意,于7月10日正式公布,将于8月15日起施行。
鼓励进步是基调。暂行办法第一条的法律依据中,在征求意见稿的《网络安全法》、《数据安全法》与《个人信息保护法》的基础上,新增了《科学技术进步法》。
暂行办法还明确了在“发展和安全并重、促进创新和依法治理”的原则下采取“包容审慎和分类分级监管”。这与欧盟针对不同风险等级分类监管的思路类似。
暂行办法还扩大了自主创新的鼓励范围,在算法与框架之外,明确纳入了芯片及其配套软件平台,以及算力、数据等基础设施平台。暂行办法还提及了外商投资相关的规定。
暂行办法还明确,企业、教育、科研等机构的研发与应用,未向境内公众提供服务的,不适用本办法。
生成式人工智能是目前全球竞争最激烈的技术领域之一。不仅创新在竞争,监管也在竞赛。中国、美国以及欧盟,正在加速监管与立法进程。中国的暂行办法的迅速出台,成为它最新注脚。
以下节选自未尽研究与启明创投联合发布的报告《生成式AI》的“监管、安全与人才”部分:
进入2023年,中国、美国、欧盟都加快了人工智能的监管和立法进程。主要是因为ChatGPT的推出和GPT-4为代表的大模型,开启了通用人工智能的大门。大模型更加强大,创新加速,新技术向各行各业渗透,人工智能给人类带来福祉和风险会同步放大。所有的监管的核心,都是在充分利用人工智能技术造福人类能力、提升竞争优势的同时,对其风险加以管理和控制。
中国非常重视人工智能的监管,已经针对人工智能应用的不同场景和突出问题,推出了数个管理条例,如算法推荐的透明、内容的深度合成、生成式人工智能管屋里等。关于人工智能的立法,已经提上2024年的议程。
中国在上半年开始施行《互联网信息服务深度合成管理规定》, 网信办发布了《境内深度合成服务算法备案清单》,还公布了《生成式人工智能服务管理办法(征求意见稿)》,全国信息安全标准化技术委员会公布国家标准《信息安全技术人工智能计算平台安全框架》征求意见稿。科技部也公布了《科技伦理审查办法(试行)》,目前已经完成征求意见。
如果参照此前有关个人信息和数据安全的相关立法进程,对人工智能的监管和立法,正在从针对性地回应特定人工智能领域的治理难题阶段,进入到推出全国综合性的立法阶段。根据《国务院2023年度立法工作计划》,人工智能法草案等预备提请全国人大常委会审议。在 2017年7月国务院发布的《新一代人工智能发展规划》中,预计2025年初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。现在看来,这一规划中的监管立法进程可能会提前完成。
欧盟继率先实施《通用数据保护条例》(GDPR)之后,又率先启动综合性的人工智能的立法,《人工智能法案》(AI ACT)目前已经在欧洲议会获得通过,再经过欧盟理事会和欧盟委员会,得到各成员国的批准,可能在2023年底或2024年初正式生效。这将对全球的人工智能的监管产生重大影响。
欧盟遵循不同风险等级分类监管的思路,《人工智能法案》建立起了三级的风险体系。而这种风险体系,也是围绕着对个人权利和人类福祉可能造成的侵害程度来制定的。不过,由于美国与中国在人工智能领域发展领先于欧盟,欧洲业界担心,以目前试图无所不包的立法草案,在人工智能这个人类尚未真正理解其含义的领域,是否会影响产生真正的创新。
人工智能最为发达的美国,与中国与欧盟情况不同。美国在联邦的层面并没有个人数据保护法,只是加州通过了《消费隐私法案》(CCPA) 。同样,美国也不大可能会在联邦层面推出一个综合性的人工智能法。美国白宫制订的有关人工智能的总统令、国会推出的有关法案、各州推出的法律、各政府机构推出的相关条例、倡议和框架,构成了美国松散的人工智能监管。美国更主要是依靠既有的法律和相关部门的职权进行监管。
值得关注的是美国商务部的国家标准与技术研究所(NIST)年初发布的第一版《人工智能风险管理框架》(AI RMF)其目标是帮助设计、开发、部署或使用人工智能系统的组织和机构,提高人工智能风险管理的能力,并促进发展可信和负责任的人工智能。虽然AI RMF只是一个自愿性的技术框架,但这一框架在正式发布前NIST已经通过数个公开的草稿版本,与人工智能学界和产业界进行了广泛的信息收集和讨论,受到广泛关注,因此,此次AI RMF一经发布,其风险管理的指导意义,得到业界公认。而美国联邦政府也正在把NIST定为人工智能风险管理的资源中心和国际合作机构。