7月13日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布《生成式人工智能服务管理暂行办法》(以下称《办法》),自2023年8月15日起施行。奇安信集团副总裁张卓表示,作为今年最热门的新技术,生成式人工智能给社会生产生活带来了很多便利,但也给数据安全、隐私保护带来更加复杂的风险和挑战。
《办法》提出国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管,明确了提供和使用生成式人工智能服务总体要求。张卓认为,促进发展和防范风险需要两者并重,从《办法》可以看出,数据安全和隐私保护贯穿于生成式人工智能数据的标注、模型预训练、模型训练、提供服务等各个环节,避免了监管盲区导致的安全风险,具体来看有以下亮点值得关注。
首先,《办法》从源头层面,对数据标注提出了明确规范。所谓数据标注,指的是对未经处理的语音、图片、文本、视频等原始数据进行加工处理, 使其成为结构化数据让机器可识别的过程。因此,它决定着生成式人工智能最底层“原材料”的安全属性。《办法》第八条要求,在生成式人工智能技术研发过程中进行数据标注的,生成式人工智能服务提供者(以下称提供者)应当制定符合本办法要求的清晰、具体、可操作的标注规则;开展数据标注质量评估,抽样核验标注内容的准确性;对标注人员进行必要培训,提升尊法守法意识,监督指导标注人员规范开展标注工作。
其次,《办法》从数据训练处理环节,明确并细化了监管要求。《办法》第七条指出,提供者应当依法开展预训练、优化训练等训练数据处理活动,遵守以下规定:包括使用具有合法来源的数据和基础模型;涉及知识产权的,不得侵害他人依法享有的知识产权;涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形;采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性;并遵守《网络安全法》、《数据安全法》、《个人信息保护法》等相关法律、行政法规以及相关监管要求。
最后,《办法》从数据服务和使用环节,形成了监管闭环,避免了安全盲区。 办法在第三章“服务规范”第九条中指出,提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务。第十一条指出,提供者对使用者的输入信息和使用记录应当依法履行保护义务,不得收集非必要个人信息。第十二条提出,提供者应当按照《互联网信息服务深度合成管理规定》对图片、视频等生成内容进行标识等等。所有这些措施,都充分考虑到了生成式人工智能的使用服务场景,尤其是面向公众的场景。
事实上,通过生成式人工智能伪造内容导致的诈骗事件已经屡有发生。国内福建一位市民10分钟内被骗走了430万元。国外也有一对夫妻,被黑客使用AI工具伪造的30秒音频诈骗了2万多美元。目前,奇安信人工智能研究院基于自身积累海量知识和大数据,在深度伪造、深度鉴伪等技术取得了突破,已经能够准确识别多种前沿AI伪造技术生成的虚假视频,可以成为防止生成式人工智能生成虚假信息的有力武器。
在不久前的2023全球数字经济大会数字安全高峰论坛暨BCS2023北京网络安全大会上,全国政协委员、全国工商联副主席、奇安信集团董事长齐向东曾表示,2023年上半年,以ChatGPT为代表的生成式人工智能像沉寂多年的火山突然喷发一样,让全社会惊喜,社会已经进入数智时代,也就是数据和智能的时代,让网络更安全、让数据更安全将成为政府、企业和社会组织的主要任务。在数智融合的大潮之下,《办法》的发布,对于促进生成式人工智能健康发展和规范应用,强化对数据安全和隐私保护的监管和落地,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益等具有重大意义。
文/北京青年报记者 温婧
编辑/樊宏伟