21世纪经济报道记者 钟雨欣 郑雪 南方财经全媒体记者 吴立洋 北京,上海报道
生成式人工智能技术在带来深刻的生产力变革时,也为监管治理提出新挑战。如何促进其健康发展和规范应用?4月11日,国家互联网信息办公室公布《生成式人工智能服务管理办法(征求意见稿)》(下称《意见稿》),拟进一步强化相关主体责任,内容涉及数据安全、个人信息保护、算法设计、内容合规等多个方面。
拟强化产品服务提供者主体责任
根据《意见稿》,生成式人工智能是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。
《意见稿》第五条拟明确,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。
中国政法大学数据法治研究院教授张凌寒表示,《意见稿》拟规定⼈⼯智能产品提供者承担内容⽣产者的责任,本质在于要求企业承担起技术开发应⽤可能造成的社会风险,以期形成负责任的⼈⼯智能。
南开大学法学院副院长、中国新一代人工智能发展战略研究院特约研究员陈兵教授指出,对生成内容生产者的认定是需要关注的重点。如果生成式人工智能产品提供者是生成内容的生产者,即应对具体数据信息的真实性、算法使用的适当性等整个生成内容的过程负责。
在责任承担方面,陈兵补充道,如果作为生产者和提供者的平台尽到相应注意义务,鉴于其对创新发展的贡献,不宜施加其严格责任,否则不利于技术的开发和未来商用。另外,关于运营公司是否需要承担相应的补充责任,应综合考虑侵权范围、损害程度以及平台避免损失扩大的能力。
广东财经大学法学院教授姚志伟表示,该条款主要是对生成式AI产品的法律责任进行划分。一是谁提供了产品,产品产生的内容谁来承担责任,这个是开发者的责任;另一个是个保法关于个人信息保护的责任。“在AI生成模型中,还有一个主体存在,即部署者,通过API接口接入AI模型的主体,目前来看,尚没有看到对这个主体的相关责任进行划分。”
海量的数据语料库是AIGC的运行基础,《意见稿》拟规定,提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。其中提到“数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形。”
“此举是为了确保录入端数据的合法性。对于生成式AI而言,传统的同意机制会面临非常大的障碍,有待探讨新的方法来保障个人信息权益。”姚志伟说。
值得注意的是,《意见稿》第九条提出,提供生成式人工智能服务应当按照《中华人民共和国网络安全法》规定,要求用户提供真实身份信息。但有采访对象指出,此处关于用户实名的场景和标准,或许还需进一步明确。
如何理解实名?姚志伟指出,实名包括强实名和弱实名,前者是指需要关联手机号码,而手机号码本身已经实名;后者则是指必须提供用户包括姓名在内的真实信息。
清律律师事务所首席合伙人熊定中向记者指出,《网络安全法》中明确要求用户提供真实身份的场景主要包括入网、信息发布与通讯两种,而生成式人工智能服务的用户输入信息行为,在大部分情况较少涉及上述两种场景。《意见稿》第九条一定程度上模糊了其适用范围,在人工智能产业发展方兴未艾的当下,有必要对真实身份验证这一相对严格的准入要求进行更为明确和谨慎地设置。
增加人工智能算法透明度和可解释性
在事前审查方面,《意见稿》拟规定,利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。
“任何技术都是一把双刃剑。生成式AI产品作为高度智慧化的人工智能形态,带给人类社会的便捷与风险同在。”陈兵指出,对其进行事前审查,能及时发现其运作程序、服务内容所存在的问题,提前鉴别某个行为是否违法,弥补外部监督的缺陷,增强AI产品的安全、可解释、可问责性,更好地预防风险。
“但同时,也可能存在因事前审查效率及审查范围设置不当而抑制生成式AI产品的研发与训练效能。客观上会导致生成式AI发展的降速。”陈兵提示道。
张凌寒表示,我国在信息内容安全领域已经有了较为完整的规定和实践。《意见稿》并未给⽣成式AI创设很多新型监管,有很多链接其他算法监管规章的转致条款。当这些制度应⽤于⽣成式AI时,也要求基本阐明功能原理、应⽤领域,⾃评估报告等。“主要关注的还是在产品上线之前,企业有没有进⾏相应的安全评估,以及是否有应对风险的能力。”
《意见稿》还提到,“生成式人工智能产品研制中采用人工标注时,提供者应当制定符合本办法要求,清晰、具体、可操作的标注规则”。
“这体现了法律层面对于人工智能的可解释性提出了更为细致的要求。”陈兵说道,这一方面可以保障生成式AI产品研制过程的透明化,防范安全风险;另一方面则可以通过清晰、具体、可操作的标注规则更好地对AI产品服务进行管理,即现阶段在人工可控的范围内有序发展AI机器学习。
在信息公开方面,《意见稿》指出,提供者应当根据国家网信部门和有关主管部门的要求,提供可以影响用户信任、选择的必要信息,包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等。
“这可以看作是我国在算法监管领域要求的透明度义务在⽣成式AI领域的具体化。”张凌寒认为,⽣成式AI可以作为问答型的信息服务⼯具,当⽤户按照其提供的信息去做出⾏为和选择时,内容的提供者有必要进行标注,比如信息来源于⾮专业⽹站,或依据的数据并不全⾯、存在争议等。此外,如何从技术语⾔转化为⽤户可以理解的必要信息,还需要继续探索。
在陈兵看来,这一要求使隐私权、个人信息权益保护不再仅局限于被动的事后救济,使保护链条前移,更积极有效地规范AI训练过程,有助于增强用户信任,使生成式AI产品更好地发展。
内容合规实践落地中
一段时间以来,利用AI生成虚假信息、歧视内容的事件频频发生。在内容合规方面,《意见稿》拟要求,利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。同时对歧视性内容作出规定。
“从AI生成内容合规的结果要求来看,AIGC的管理在本质上和UGC的管理是一致的。”某资深网络安全行业从业者向南财记者分析,二者都需要在内容生产和发布过程中对违规内容进行审查和处理,从内容过滤的角度看,使用的方法是相通的。
有相关从业者向记者透露,目前在AIGC内容审核领域,已经相对明确的标准是相关应用需通过网信办双新评估,即“互联网新闻信息服务新技术新应用安全评估”,且同一个大模型在不同场景中的应用都需要通过该评估。
4月11日当天,阿里云在北京云峰会宣布将开放通义千问的能力,帮助每家企业打造自己的专属大模型,记者向其了解通义千问将采取哪些措施保证内容符合相关政策法规要求时,其相关负责人表示,阿里方面会严格按照监管要求,执行相关规定。
记者同样向百度方面询问了文言一心将采取哪些具体措施保证内容合规,其相关负责人则表示目前暂不方便对外透露。
相关企业相对谨慎的态度也并非不可理解——尽管从生成结果合规的角度看原理一致,但相较于UGC,AIGC需要采取的处理措施显然更为复杂。
上述网络安全从业者分析,在前置端,用于AI学习的内容,无论是文本还是音视频,其本身就需要提前审核,相关要求已在《意见稿》中有所体现;在后置端,AI还需要具备一种能力,即发现违规内容时,要具备追溯其生成相关内容的学习“材料”能力,并判断是需要调整原始学习素材,抑或是修改模型参数,或是其他方式避免相关情况再次出现。
在事中、事后处置阶段,《意见稿》拟要求提供者建立用户投诉接收处理机制,并且,对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。
“整改优化的结果验证应落实于技术实践,辅之以监管保障。”陈兵表示,应设定技术运用的基本门槛,落实于实践试用,加之定期和不定期的监测,保证其整改优化结果的安全性与可信度。在优化整改后,可通过人工测试模拟运行、“监管沙盒”以及设置监管过渡期等方式,检验其整改后是否仍存在不符合规定的生成内容。
“生成式AI带来了革命性的变化,这种变化不亚于互联网发明的变革。”姚志伟在谈及监管思路时强调,面对新兴的革命性技术,一方面要划定底线,保障国家安全和公共安全;另一方面,也应创造宽松的监管环境,促进新兴技术和产业的发展,为国内产业加强国际竞争力创造良好条件。
“可以采取二元化的策略,对于危害到国家安全和公共安全的问题,列出清晰的规则,划定底线进行监管。而对于个人信息保护、知识产权侵权、人格权侵权问题,则可以先观察和等待。待产业实践更成熟、可供参考的海外经验更多的情况下,再进一步监管也不迟。 ”姚志伟表示。
更多内容请下载21财经APP