当前位置:首页|资讯|AIGC|人工智能|百度|阿里巴巴|文心一言

网信办公开征求意见!AIGC生成式人工智能服务新规如何规制?

作者:神经童非童发布时间:2023-04-14

近期,互联网大厂相继推出AI语言模型,从百度的文心一言到阿里巴巴的通义千问。而另一边,ChatGPT引发的个人和商业数据泄露,也引发争议。

为促进生成式人工智能技术健康发展和规范应用,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》,向社会公开征求意见。

以ChatGPT为代表的人工智能生成内容(AIGC)创新技术如何规制?征求意见稿对隐私、知识产权、肖像权、名誉权、训练数据、人工标注、标识、不公平竞争、防沉迷等提出了规范。商道童言(Innovationcase)认为《办法》中有几个条款值得重点关注。




第一条

为促进生成式人工智能健康发展和规范应用,根据《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律、行政法规,制定本办法。

在合规上,企业不仅要关注办法提及的约束,更多的是监管要求的演进路径,其相比《互联网安全法》的基本规定有新的升级和新的要求。

本办法的基础,构建在网安法、数安法、个保法的基础框架上,因此,企业应该关注生成式人工智能服务的本质。这类服务基础前提依然是网络服务应用,然后是是“数据密集型”应用,极易触及“个人信息”的雷区。 

数字经济应用实践专家骆仁童表示,在ChatGPT火爆的当下,需要警惕的是,当大家习惯了使用ChatGPT,很容易就会形成一个知识茧房,比互联网时代甚至影响更大,这实际上对各国的政府来说都是一个大隐患。《手机应用沉迷机制最可怕的地方,是让我们没意识到自己在变蠢》



第二条

研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的,适用本办法。

本办法所称生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。


从广义上讲,“生成文字、图片、声音的算法模型和规则”可以涵盖大部分网络应用。任何人工输入的信息,都需要经过算法模型或一定规则的处理,最终以另一种信息形式呈现。在输出端,执法部门如何理解“生成”在实践中尤为重要。

也就意味着,当生成式人工智能的产品不再是内部的自行使用、测试使用或是为某个领域某个企业的定向开发,而是在互联网上向公众提供公开的服务时便需要注意合规的要求。

征求意见稿制度设计,一方面延续了《互联网信息服务深度合成管理规定》关于标识、评估、备案等既有制度安排,另一方面就训练数据、人工标注等提出了新的合规要求,相比于《互联网信息服务深度合成管理规定》,体现出监管逻辑更新和制度体系迭代的新趋势。



第四条

提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,符合以下要求:

(一)利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。

(二)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视。

(三)尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争。

(四)利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。

(五)尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。禁止非法获取、披露、利用个人信息和隐私、商业秘密。




第五条

利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;


AIGC的治理将会着眼于内容、算法、数据、平台不正当竞争、用户隐私等各个层面的问题。

首先,国家统一和国家安全是重中之重,强调内容监管。生成内容不能触及违反社会主义核心价值观的底线,谨防打着人工智能旗号故意输出违法有害内容。
其次是要提防“算法歧视”现象。除了杜绝有害内容的主动输出外,还规范了算法设计、数据选择等相对隐性的业务实现规范,实现了从模型到数据全过程的平等。
同时,也提前给可能垄断算法、算力、数据的企业进行预警。国家倡导数字时代共享共治。在保护企业智力成果和投资成本的同时,防范如此前滴滴这种恶性竞争和市场垄断的发生。
数字经济应用实践专家骆仁童认为,政府正在推进“可信”的生成式人工智能服务的发展。对于这类服务,“可信”是最难做到的。具体来说,一是强调了安全评估和算法备案的前提和必要性; 二是强调服务提供商需要确保遵守数据安全和个人信息保护,特别是隐私保护;三是对违法行为的处罚措施包括追究刑事责任。
核心问题指向服务产生的内容可信度的波动,可能超水平的表现,也可能难以分辨的潜在错误,因此,要求企业采取一定措施保持生成内容的准确性也是符合实际需要的。




第八条

生成式人工智能产品研制中采用人工标注时,提供者应当制定符合本办法要求,清晰、具体、可操作的标注规则,对标注人员进行必要培训,抽样核验标注内容的正确性。


为了保证标注的准确性,减少因标注错误造成的数据污染,复杂的规则制定、训练、检测成为行业的基本操作。服务开发者会自发地尽可能对标签进行标准化,以提高模型的性能。“打标员”这一新职业可能也会逐渐出现在人工智能企业。




第十条

提供者应当明确并公开其服务的适用人群、场合、用途,采取适当措施防范用户过分依赖或沉迷生成内容。


过去,用户沉迷于网络服务提供的内容的例子比比皆是。然而,深度合成的内容具有高度拟人化和高度交互性,让人难以区分。他们很可能会深陷其中,不愿接受现实。不符合法律要求的相关服务很可能成为新时代的“网络烟雾”。



第十一条

提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。法律法规另有规定的,从其规定。


信息泄露问题已经开始出现在会话内容生成服务中。为了根据用户输入提供“完全个性化”的输出,服务提供商需要将输入馈送到模型中,数据处理过程中很难保证“静态”数据。

从Deepfake技术2019年爆红以来,到去年起兴起的Stable Diffusion技术、MidJourney,换脸技术、图像生成技术就引发了对肖像权、名誉权的巨大争议。

由于ChatGPT会保留用户输入数据以进一步训练自身,其引发严重的隐私和数据安全担忧。日前,ChatGPT被曝数据泄漏,多名用户反馈,看到了其他用户与ChatGPT的对话记录以及姓名、邮箱、信用卡最后四位数字等。当地时间4月5日,OpenAI发布声明宣布了六方面整改措施,包括“保护儿童”“尊重隐私”等。

该技术的使用对商业机密也构成威胁。近日,三星被曝芯片机密代码遭ChatGPT泄露,引入不到20天就出3起事故。

中国支付清算协会也发出倡议书,提醒支付行业从业人员合规使用ChatGPT等工具,规避行业关键数据泄露风险。





第十五条

对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。



第十九条

提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。


对于生成式人工智能的“非法出口”,本办法并没有一刀切禁止,而是给企业留下了相当大的空间,这部分也明确回应了此前公众的一些担忧,起到了全面规范的作用。

一方面,提供商需要建立接收和处理用户投诉的机制;另一方面,需要积极进行内容验证,发现违法内容及时采取措施停止服务,防止危害不断产生,限时优化模型。









目前,本办法还在征求意见阶段,未来肯定会纳入各方意见进行调整。每个开发者都需要在数据维护、模型设计、模型输出、用户交互的全过程中进行新的服务设计和改进。

掌握人工智能治理的话语权、规则制定权,抢先形成新的国家竞争优势,我国在个人信息保护和数据立法领域与欧盟、美国并行,本次出台的办法细则,也体现了我国重视和支持生成式人工智能技术的发展,将相关科研机构和企业的发展纳入合规、安全的框架,对人工智能建设极为有利。



商道童言(Innovationcases)欢迎点赞和分享哦!~~

免费电子书:结构化思维 | 荆棘商途 | 年度十词 创新企业案例 | 区块链金融


数字经济应用实践专家 骆仁童主讲课程

智慧应用 |《能源互联网》.《新型电力系统》.《智慧建筑》.《智慧机场》.《智慧交通》.《烟草数字化》.《智慧城市》.《数字政府》

数字应用 | 《大数据及中台》.《区块链》.《元宇宙》

人工智能 |  《人工智能趋势》. 《ChatGPT新纪元》

数字化转型 |《制造业数字化》.《零售业数字化》 

金融类课程 | 《金融科技创新》. 《商业银行变革》 .《数字人民币》

思维与技能 |《数字化管理思维》.《数字化组织变革》.《用户思维》

宏观与趋势 |《2023宏观趋势》.《数字经济》.《双碳战略》.《新能源汽车》

创新与创业 |《创业导师能力提升培训》.《中小企业赋能》




Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1