当前位置:首页|资讯|人工智能

今日起施行!七部门联合公布《生成式人工智能服务管理暂行办法》

作者:华制智能发布时间:2023-08-17

原标题:今日起施行!七部门联合公布《生成式人工智能服务管理暂行办法》

近日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布《生成式人工智能服务管理暂行办法》(以下简称《办法》),自2023年8月15日起施行。

生成式人工智能技术是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。近年来,生成式人工智能技术快速发展,为经济社会发展带来新机遇的同时,也产生了传播虚假信息、侵害个人信息权益、数据安全和偏见歧视等问题,如何统筹生成式人工智能发展和安全引起各方关注。

据国家网信办有关负责人介绍,出台《办法》,既是促进生成式人工智能健康发展的重要要求,也是防范生成式人工智能服务风险的现实需要。

《办法》提出国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。

在促进发展具体措施上,《办法》明确鼓励生成式人工智能技术在各行业、各领域的创新应用,生成积极健康、向上向善的优质内容,探索优化应用场景,构建应用生态体系;鼓励生成式人工智能算法、框架、芯片及配套软件平台等基础技术的自主创新,参与生成式人工智能相关国际规则制定。

《办法》明确生成式人工智能服务提供者应当依法开展预训练、优化训练等训练数据处理活动,使用具有合法来源的数据和基础模型;涉及知识产权的,不得侵害他人依法享有的知识产权;涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形;采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。此外,明确了数据标注的相关要求。

相关阅读

生成式人工智能的潜在风险

以ChatGPT为代表的生成式人工智能存在一定的潜在风险,总体来看主要有以下几个方面:

01

伦理风险

人工智能的算法透明性与可解释性被长期诟病,算法本身的“理性思维”难免与社会伦理发生冲突。

其一,算法歧视。无论是对比式人工智能还是生成式人工智能,均依赖于人类算法设计和学习数据输入,然而算法设计和学习数据筛选本身都包含设计者的价值判断,在数据源受到污染时输出结果也会产生偏差。

其二,生成失范信息。如果应用程序使用者刻意诱导人工智能输出诸如虚假等失范信息,有可能会导致人工智能违背预设准则而输出不良导向的内容。

其三,挑战学术、艺术创作伦理规范。美国有调查显示,超过50%的学生使用过ChatGPT撰写论文,近90%的学生用ChatGPT完成作业,这一方面冲击学术伦理规范,另一方面人工智能对现有作品的挖掘存在超越“合理使用”范围、侵犯著作权嫌疑。

其四,反作用于人类社会。ChatGPT通过对话实现需求收集和内容输出,但无论提问方式和输出内容如何,都会在交互中对使用者产生一定引导性,这意味着人工智能输出内容会影响人类决策,对人类社会产生反作用力。

02

数据与隐私安全风险

系统训练生成式人工智能的过程中需要输入大量数据,这些数据面临来源合规和使用合规两方面的风险。

在数据收集阶段,收集个人信息应当取得信息主体的同意,收集开放渠道的信息必须在“合理使用”范围内,否则有可能违反个人信息保护法、数据安全法等相关法律法规的规定。

在数据使用阶段,主要存在数据泄露、数据主体权利行使困难两方面困境。用户在使用ChatGPT等生成式人工智能时,可能会向模型输入包括个人信息、商业秘密等内容,若输入内容被用于人工智能迭代训练,在其他用户命令人工智能提供信息时,它可能会将前用户输入的信息全盘托出。

03

归责难题

在技术中立背景下,如何对人工智能因价值缺失、设计缺陷等而产生的侵权损害进行归责存在较大讨论空间。如果对人工智能问责,就必须在算法漏洞与实际损害结果之间建立直接因果关系。

一方面,ChatGPT只有在用户触发时才作出回应,这意味着有时算法漏洞与损害结果之间无法形成法律上的因果关系,仅是诸多侵害原因的一种。

另一方面,ChatGPT算法极为复杂,这一情形下可能任何人都无法预测算法的决策思路,也无法复现运算过程,这也使得实践中难以评估其中的因果关系。

由于人工智能在交互中难以判断用户输入信息的真伪性,有时会将错误信息作为学习数据,导致输出内容违法,此时侵权的源头则指向前用户,加大了归责难度。

--THE END--

来源:新华网;科技日报;民主与法制时报


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1