当前位置:首页|资讯|人工智能|大语言模型

法国数据监管机构发布:《人工智能行动计划》

作者:全球技术地图发布时间:2023-06-23

原标题:法国数据监管机构发布:《人工智能行动计划》

法国数据监管机构发布:《人工智能行动计划》

法国国家信息和自由委员会(CNIL)是法国数据监管机构,近年来一直致力于预测并应对人工智能带来的社会挑战,重点关注生成式人工智能、大语言模型和其衍生应用。2023年5月16日,基于生成式人工智能的快速发展所带来的问题,CNIL发布了最新的《人工智能行动计划》(以下简称“《计划》”),以部署尊重个人隐私的人工智能系统。

01

人工智能发展的重要挑战:个人数据保护

人工智能的快速发展对数据保护和个人自由造成了挑战,近年来,CNIL一直在努力解决这些问题。自2017年发布了关于算法和人工智能伦理挑战的报告以来,CNIL已经就人工智能技术及其应用所带来的问题发表了若干声明。

最近,生成式人工智能系统取得了重大突破,例如用于聊天对话的ChatGPT、Bard,用于声音生成的Vall-E,用于图像生成的MidJourney、Dall-E、Stable Diffusion。这些基础模型已经在各个领域得到应用。然而,对于它们的功能、可能性和局限性的理解,以及围绕它们的法律、伦理和技术问题,仍存在很大争议。

为此,CNIL发布了《计划》,旨在为生成式人工智能的发展提供框架和支撑。

02

四管齐下的行动计划

CNIL的主要工作之一是监管人工智能。近年来,CNIL一直在努力预测和应对人工智能及其不同用途所带来的挑战。面对人工智能的快速发展以及当前与生成式人工智能有关的争议性事件, 本次所发布的计划主要围绕四个目标展开:

1. 了解人工智能系统的运作方式及其对个人的影响;

2. 保护并监督尊重个人数据的人工智能发展;

3. 集中力量支持法国和欧洲人工智能生态系统中的创新者;

4. 审计、监管人工智能系统并保护个人隐私。

03

具体内容

了解人工智能系统的运作方式及其对个人的影响

人工智能系统的创新技术带来了数据保护方面的新问题, 主要包括:

1. 人工智能系统运作所需数据的公平性和透明度;

2. 在采集人工智能系统训练所需的数据时,对网络上可公开访问数据的保护;

3. 保护用户在使用人工智能工具时传输的数据;

4. 防止人工智能系统产生偏见或歧视;

5. 应对人工智能系统所面临的前所未有的安全挑战。

这些方面将成为CNIL的人工智能部门和CNIL数字创新实验室(LINC)的重点工作领域。

保护并监督尊重个人数据的人工智能发展

为了支持人工智能领域的参与者,并为欧洲《人工智能法案》的实施做好准备,CNIL已经提出并发布了:

1. 若干人工智能领域的指南(2022年),包括关于人工智能基本原则在内的教育性内容指南,以及为该领域专业人士提供合规支持的指南。

2. 关于在公共区域使用视频图像增强监控工具的立场。

CNIL还宣布了正在研究以及即将发布一些涉及新主题的相关内容:

1. CNIL将针对《数据共享和再利用适用规则指南》向社会公开征求意见。该指南重点关注网络上可用数据的再利用,这也是基于机器学习的人工智能系统最敏感的问题之一。

2. CNIL将继续推进为机器学习设计人工智能系统并建立数据库。从2023年夏天开始,CNIL将围绕特定主题发布出版物,这些主题包括:科学研究中的数据使用、目的限制原则在通用人工智能中的应用、训练数据选择的规则和有效实践、个人权利的管理等。

CNIL还将持续从伦理角度上对以下几个问题进行反思与讨论:机器学习模型的使用与共享、偏见和歧视的预防与纠正,以及人工智能系统的审查。

集中力量支持法国和欧洲人工智能生态系统中的创新者

CNIL通过人工智能监管,建立符合法国和欧洲基本权利和价值观的创新者培养框架。为实现这一目标,CNIL采取了三种形式:

1. 2021年,CNIL启动了“沙盒”计划,以支持人工智能领域的创新项目和创新者。被选中的项目将在约定时间内获得CNIL团队的支持。2021年和2022年的项目主题分别是“健康”与“教育”,旨在为专注这些领域的人工智能创新者提供针对性建议。2023年“沙盒”计划的项目申请也即将启动,将重点关注人工智能在公共部门中的应用。

2. CNIL将向2024年奥运会和残奥会视频图像增强摄像机的供应商提供支持。

3. CNIL于2023年2月推出了名为“强化协助”的新计划,旨在支持具有强大经济发展或创新潜力的数字公司。因此,该计划自然也将涵盖人工智能领域项目。

另外,CNIL希望与研究团队、研发中心和开发人工智能系统的法国企业长期保持交流与合作。

审计、监管人工智能系统并保护个人隐私

CNIL需要监督各利益相关者遵守尊重人权和自由的人工智能系统开发框架。因此,CNIL必须设计必要的工具以审计人工智能系统开发的全过程。

2023年,CNIL的人工智能监管措施主要聚焦于以下几方面:

1. 监督对《关于在公共区域使用视频图像增强监控工具的立场》的遵守。

2. 监管欺诈预防系统(例如社会保险欺诈)。使用人工智能算法来运行欺诈预防程序目前还面临着一定的挑战。预防欺诈程序通常涉及从异构数据源(购买记录、社交网络活动等)收集的大量数据,因此这种程序可能会侵犯数据主体以阻碍程序运行。

3. 调查涉及人工智能工具的投诉。CNIL证实已收到针对管理ChatGPT服务的OpenAI公司的投诉,并已对其展开调查。这项调查与在欧盟数据保护委员会 (European Data Protection Board)内设立的ChatGPT专门工作组同时进行,以确保能够相互协作,对ChatGPT实施数据处理的方式进行统一分析并解决问题。

CNIL会格外关注那些通过处理个人数据来开发、训练或使用人工智能系统的机构是否:

1. 执行数据保护影响评估 (Data Protection Impact Assessment),记录并采取措施降低风险;

2. 采取措施确保用户知晓个人数据的使用情况;

3. 在当前背景下规划措施以保护人权。

通过这些工作,CNIL希望制定明确的规则,来保护欧洲公民个人数据安全,为开发保护隐私的人工智能系统做出贡献。

免责声明:本文转自元战略,原作者周苡。 文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!

转自丨元战略

作者丨周苡

研究所简介

国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。

地址:北京市海淀区小南庄20号楼A座

微信:iite_er


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1