今年以来,以ChatGPT/GPT-4为代表的各种大语言模型(Large Language Model)及其应用不断登上全球媒体的头条。与此同时,生成式人工智能的强人机交互性、语料强依赖性等特征也带来了诸如虚假信息、版权侵权等的风险。
世界范围内,意大利是首个对生成式人工智能产品ChatGPT发布禁令的国家,并对其涉嫌违反数据保护要求展开了调查;加拿大隐私专员办公室宣布对ChatGPT的开发者OpenAI公司展开调查;英国数据保护机构发布了对使用生成式人工智能(Generative AI)的8个问题;德国联邦数据保护发言人也表示,出于数据保护方面的考虑可能会暂时禁止在德国使用ChatGPT。
不同于对生成式人工智能的直接禁令,技术本身一旦出现就几乎无法回卷,只能引导不能绝对禁止,否则必然会转入地下,安全风险只会更高。我国于2023年4月11日发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称“生成式AI新规”),以相对务实态度对生成式人工智能进行立法回应。
新规出台前,我国主要通过《互联网信息服务算法推荐管理规定》(以下简称“《算法规定》”)和《互联网信息服务深度合成管理规定》(以下简称“《深度合成规定》”)对生成合成类算法进行规制。
《算法规定》由网信办会同工信部、公安部、市场监管总局于2021年12月31日发布,主要聚焦在大数据杀熟、诱导沉迷网络、劳动权益保障、偏见歧视以及未成年人和老年人权益保障等五个方面的问题。《深度合成规定》由网信办会同工信部、公安部于2022年11月25日发布,确定了深度合成技术的监管范围,划分明确了深度合成服务提供者、技术支持者和使用者及应用程序分发平台的各方责任。
生成式AI新规明确,生成式人工智能产品或服务提供者(“提供者”)应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向网信部门申报安全评估,并按照《算法规定》进行算法备案。由于生成式AI的开发和运营成本较高,国内该领域的发力者也主要是大型企业,因此对其采取更高更细的监管要求也是可预期的。
相对于《算法规定》《深度合成规定》等监管规范对生成合成类算法提出的合规要求,生成式AI新规增加了提供者在内容生产者责任、合法预训练数据及优化数据、建立不法内容处理机制、积极指导用户等领域的合规义务;细化了防止歧视、防止生成虚假信息、人工标注、信息保护与公开、防范用户过分依赖或沉迷、用户投诉接收处理机制等领域的合规要求。
生成式AI新规是一部典型的“小切口”立法,将规制对象明确为生成式人工智能,在承继既有算法与深度合成既有规制的基础上,以评估和备案为监管抓手,致力守住技术发展安全底线。相比大而全式立法带来的将风险泛化,这种就事论事、快速出台的规制思路,可能也是未来科技立法的一个趋势。需要观察的是,产业界和监管机构、大众媒体如何良性互动,将发展带来的风险在发展中解决,主动解决各方的安全焦虑,而不是刻舟求剑,把一些产业和技术过渡期的问题变成技术探索的阻碍。
(作者单位:世辉律师事务所)
更多内容请下载21财经APP