当前位置:首页|资讯|生成式AI|人工智能

首部生成式AI治理办法要来了,高校更关心这些问题

作者:互联网法律评论发布时间:2023-05-05

原标题:首部生成式AI治理办法要来了,高校更关心这些问题

人工智能技术的发展和应用,已经深刻影响了各行各业,高校也不例外。高校既是人工智能人才的培养基地,也是人工智能技术的创新源泉。近日,国家互联网信息办公室发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》)。这将是我国首部针对生成式人工智能的专项法规,也将是国际上较早涉及该领域的法规之一。《征求意见稿》对生成式人工智能服务的定义、主体责任、内容规范、监督管理等方面做出了明确规定,引发了社会各界的广泛关注,高校专家也针对各自关注的问题各抒己见。

训练数据是否要“绝对真实准确”?

《征求意见稿》第七条提到,生成式人工智能服务提供者应能够保证数据的真实性、准确性、客观性、多样性。

郑州大学人工智能工程应用实验室主任马竞:生成式人工智能技术是一种基于数据驱动的技术,它通过学习大量的数据,来模拟数据中的分布和规律,从而生成新的数据。这种技术本身并不具有判断真实性、准确性、有效性的能力,也不依赖于这些标准来优化自身的性能。因此,要求生成式人工智能服务提供者保证其提供的服务内容真实、准确、有效,实际上对技术存在一定的误解。

西交利物浦大学智能工程学院计算机副教授马洁明:作为生成式人工智能服务提供方,如果需要确保训练数据的真实无误,将会消耗大量的经济成本和时间成本,直接导致训练数据体量缩减,这无疑会降低大模型学习能力,让我国失去发展生成式AI的先机。

同济大学软件学院院长、国际欧亚科学院院士赵生捷:与其对信息真实与准确性用“堵”的办法,不如用“疏”的方式,引导广大使用者加强对人工智能这个工具的正确认知与使用,促进技术和应用之间形成更多良性互动机制。

严谨、真实的AI内容,是用户想要的吗?

《征求意见稿》第四条提到,利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。

北京师范大学基础教育质量监测协同创新中心副教授刘浩:在某些领域,例如艺术创作或日常对话等,对语言模型的智能化需求远高于对内容真实性的需求。过于强调生成内容的真实性和准确性可能会导致模型更倾向于生成传统、常规的内容,而忽略了模型的创造性和智能化特点,从而抑制人工智能的思维能力和情感能力的发展。

天津中德应用技术大学软件与通信学院院长杨清永:从技术实践角度出发,人工智能生成内容的真实性与准确性与生成式人工智能的运行原理有一定的冲突,生成式人工智能技术并不是简单的“拼凑”机器、“缝合怪”,而是通过生成式处理技术,通过复杂且有创造性的生产,产出基于要求及标准的创新产品。在生成式人工智能今后的发展上,应该基于人类的生产生活经验,为模型提供更多创新性的方法帮助技术迭代,而不应以绝对的真假来遏制创造的思想。

AI内容被恶意使用,谁的责任?

《征求意见稿》第五条提到,提供生成式人工智能服务的平台,同时承担该产品生成内容生产者的责任。

复旦大学青年研究员陈智能:生成式人工智能内容可能存在多个层级的生产者。例如,用户使用生成式人工智能产品的服务绘制生成一张图片,生成后的这张图片也可能会经过人为修改(如添加不法文字)后进行复制、传播及使用。很显然,服务提供者无法控制用户对生成内容的使用用途,也不应对使用者恶意使用服务,违规传播生成内容负责。

天津大学新媒体与传播学院副院长李嘉毅:应该将事前的监管调整为事后加强审核,设置内容输出门槛,如对于图像、音视频的再生成内容,导出时需在作品上可标记用户信息,按照“谁使用谁负责”的要求确定责任主体,平台方则承担相应的内容管理责任。

据了解,《征求意见稿》意见反馈截止时间为5月10日,目前针对各项规定的讨论仍在继续。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1