当前位置:首页|资讯|人工智能|AIGC政策

重磅!中国生成式人工智能监管规定即将出台

作者:长安街知事发布时间:2023-04-12

原标题:重磅!中国生成式人工智能监管规定即将出台

4月11日,国家网信办起草《生成式人工智能服务管理办法(征求意见稿)》(下称《办法》)向社会公开征求意见。几个月以来,生成式人工智能AIGC)一直是人们关注的焦点,从ChatGPT到文心一言,再到GPT-4和各类生成式人工智能,生成式人工智能的浪潮滚滚向前。

而在国内外近半年来的体验中,发现了生成式人工智能的许多问题。也是因此,国家主动出手,秉承着发展的主基调,划定责任主体,制定行业底线,为中国的生成式人工智能健康发展亮起绿灯。

《办法》首先明确,国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作。因此,制订管理办法是为了未来更好发展该技术而不是限制该技术。

三大问题,一次规定

《办法》集中瞄准生成式人工智能的三大问题,从明确条件要求、划定责任主体、形成问题处理机制、清晰法律责任几个方面为行业划定底线。而研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的,均在《办法》的适用范围内。

无论是中国还是外国公司,在底线之上,则大有可为。

一是隐私安全问题人工智能对大数据极度依赖,往往需要经年累月的有关于用户的深度信息才能塑造一个成熟的人工智能。而有关于数据收集和保存的问题已经引起了有关隐私问题的担忧。即使是风靡全球的ChatGPT,近日也被爆出存在隐私泄露风险。

据英国广播公司(BBC)报道,当地时间3月22日,ChatGPT的开发公司OpenAI创始人山姆·阿尔特曼在推特发文称,该AI的一个故障让一些用户能够看到其他用户对话历史记录的标题。几乎是同时,意大利成为全球首个禁用ChatGPT的国家。意大利隐私保护监管机构因隐私安全问题封锁ChatGPT。

OpenAI创始人山姆·阿尔特曼 资料图

生成式人工智能发展的道路上,隐私安全是不可能绕过的问题。对此,《办法》规定,生成式人工智能提供者需“承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。”

二是技术滥用问题人工智能本质上是提升人类生产力的工具,但当这种工具和技术被用于损害公共利益和安全时,他们的“尤其好用”会变为“尤其危险”。而如果人工智能技术被用于金融、网络犯罪,将会给执法机关造成前所未有的破案难度。

截至目前,人工智能生成图片已经造成了不小的问题。例如Midjourney这类人工智能生成图片的应用软件被滥用,引起了混乱。

近日,马斯克接连在Twitter上评论了多张人工智能合成的他本人的照片,其中有一张照片是马斯克和通用汽车女掌门人Mary Barra手牵手。马斯克评论道:“我肯定不会穿这身衣服。”国内,也有人使用人工智能给地铁上的女乘客“一键脱衣”。随着生成式人工智能的进步,类似的技术滥用问题可能会越来越严重。

在与技术滥用问题相关的虚假信息管理和他人权益问题上,《办法》规定“利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。禁止非法获取、披露、利用个人信息和隐私、商业秘密。

三是知识产权和他人权益问题生成式人工智能在输出内容的过程中,其输出的内容很有可能造成专利侵权、商标侵权、版权侵权、未经许可使用软件或数据等问题。同时,生成式人工智能所产生的内容是否具有著作权,也是有争议的问题。

对此,《办法》也作出了初步规定,包括生成式人工智能的训练“不含有侵犯知识产权的内容”“数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形”等。

同时,生成式人工智能提供者需要建立侵权投诉及保护机制,“及时处置个人关于更正、删除、屏蔽其个人信息的请求;发现、知悉生成的文本、图片、声音、视频等侵害他人肖像权、名誉权、个人隐私、商业秘密,或者不符合本办法要求时,应当采取措施,停止生成,防止危害持续。

多国为AIGC发展建立护栏

对于中国这样一个用户主体庞大且极其 多样化、数据质量参差不齐的巨大市场,某一行业的高速发展永远离不开监管的保驾护航。特别是生成式人工智能这样一个崭新却又充满挑战性的领域。实际上,各国对于生成式人工智能的监管都已在路上。

中国方面《生成式人工智能服务管理办法(征求意见稿)》的制定与实施将帮助确保人工智能产品的合理与安全使用。强调提供者承担生成内容生产者的责任,以及涉及个人信息时承担个人信息处理者的法定责任,并履行个人信息保护义务,有利于保护用户数据和隐私。

国方面得益于ChatGPT的流行,美国企业开始不断尝试使用人工智能赋能应用场景。但与此同时,对人工智能的担忧也在增加。几乎与《办法》同时,美国商务部4月11日也就相关问责措施正式公开征求意见,包括新人工智能模型在发布前是否应经过认证程序等。美商务部下属国家电信和信息管理局(NTIA)正在就企业和监管机构如何合作进行调研,以此为基础,建立人工智能模型可信度、合法性和道德准则相关的审查制度。NTIA的调查将侧重于搭建监管人工智能的最佳方法,并在技术发展进程中,为白宫和国会不断输出政策建议。这项调查拟邀请公司、民间社会团体、研究人员和公众群策群力。目前拜登政府也已经开始研究是否需要对ChatGPT等人工智能工具实行检查。

拜登政府正在权衡为 ChatGPT等人工智能工具设定规则 图源:《华尔街日报》

欧盟方面目前欧盟和美国一样,还并没有针对生成式人工智能的立法,但已经有了成型的人工智能立法。欧盟的人工智能立法,即《人工智能法案》(AI Act),将于2024年正式生效。《人工智能法案》的目标是让公民和消费者感到信任,并维护欧盟的价值基础。2023年2月8日,欧洲议会人工智能伦理领域顾问Anna Felländer在欧盟委员会官网发表了ChatGPT’s rapid entry – Urgent for the government to appoint an authority for responsible AI一文,提出了关于为什么要对生成式AI进行监管。人工智能监管的根本问题在于:究竟是人工智能来控制人类,还是人类来控制人工智能。因此,道德、法律、风险评估都十分重要。

“看到这些工具即使在相对初级阶段也能做到的事情,真是令人惊讶,”NTIA局长艾伦·戴维森说,“我们知道,我们需要设置一些护栏,以确保它们被负责任地使用。

目前不管是欧盟、美国还是中国,都已经意识到了人工智能领域,尤其是生成式人工智能,既充满了发展的潜力,也遍布了危险的荆棘。因此三个主要经济体几乎同一时间对生成式人工智能设置“护栏”,保证发展的安全性。完善的治理,一方面将保障国家安全和公共安全,另一方面,也可以促进新兴技术和产业的发展,加强国际竞争力。

走好AIGC安全发展之路

在人工智能技术的发展、落地和应用场景扩散的趋势不断扩大的当下,《办法》的推出坚定 了中国未来走好生成式人工智能发展之路的决心。

要发展,也要安全。《办法》中明确提到,国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。可以看出,生成式人工智能是国家坚定支持的领域,发展是主基调。对于这个领域的企业和组织来说,前途广阔、大有可为。

数据安全、隐私安全、道德和法律,则是生成式人工智能治理的基础。《办法》提出,“利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。”同时,提供者应当明确并公开其服务的适用人群、场合、用途,采取适当措施防范用户过分依赖或沉迷生成内容。

各国对生成式AI的重视不单单是针对一个未来有前景的新生事物,更重要的是其背后解放和发展当前其他领域的生产力的潜力。未来生成式人工智能极有可能成为主流生产力本身。中国出台相关管理办法正是为了未来发展该技术做准备。

目前《办法》仍处于征求意见阶段,未来还可能收纳各方意见进行调整。《办法》敲定之后,将有助于行业健康发展,遏制不良行为。这一举措显示出中国对生成式人工智能服务发展的关注和支持,希望通过规范管理,保障人工智能技术在安全、合规的环境中发展,同时保护用户的隐私和权益。未来也可将有代表性的人工智能公司纳入治理体系,同监管机关合作开发与技术发展和市场竞争相适应的监管框架。

作者为复旦大学中国研究院特邀副研究员


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1