当前位置:首页|资讯|生成式AI|人工智能|法律|AIGC政策

护航生成式AI发展,还需整个数据生态“向善”“向好”

作者:东方网发布时间:2023-04-15

原标题:护航生成式AI发展,还需整个数据生态“向善”“向好”

日前,网信办发布《生成式人工智能服务管理办法(征求意见稿)》,《办法》就生成式AI的定义与运用范围、生成式AI在研发、应用等不同环节需遵循的社会伦理、对知识产权与个人隐私的保障等法律义务,生成式AI服务平台违反相关法规所应承担的责任,都有了明确标准和要求。

而且就生成式AI这一新事物,《办法》向全社会公开征求意见,这也表明了监管部门的开明态度:监管模式不可能一蹴而就,尚需通过多方论证加以完善。对于《办法》中的各项条款细节,社会各界也就有了可充分探讨的空间。

《办法》的初衷和目的,都是为了引领产业朝良性方向发展。而我们也看到,其中的有些条款规定,其实是对整个数据生态提出的要求。

比如《办法》第四条规定,利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。

训练生成式AI需要海量的内容和信息,这些信息和内容是根据历史的语料及语料中的文字概率分布来生成的。需要发挥各个网站的主体意识, 从源头上保障所谓的“真实准确客观”。因此,这也要求数据生产平台要把“真实准确”的责任负起来,这关系到内容筛选成本的合理分配,也是对责任权重的科学划分。

再比如《办法》第五条规定:利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任。

按照这一规定,生成式AI服务平台将承担等同于内容生产者的责任。但我们知道,生成式AI的最大特性,是其推理生成过程本来就是一个概率问题,具有一定的概率性和创作性,生成内容在不同的场景使用可能会产生不同的影响,生成式人工智能提供方无法确定使用者的具体用途。因此,这也就要求使用方要切实负起责任,善用平台。如此,才能确保行业能够良性发展,行稳致远。

再比如《办法》第十六条规定:提供者应当按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识。

针对这一规定,有不少人拍手叫好,认为是对最近频频出现的“AI换头”“AI换脸”犯他人隐私及权益的有效应对。不过,如果考虑到AI技术及未来将大量应用影视作品、游戏动漫等,如果“一刀切”地强制要求对AI生成的图片与视频都加上标识,那这个画面可能就有点“没法看”了。试想一下,你看电影看得正起劲,沉浸于剧情不可自拔,却突然在某个劲头中出现了“AI生成”的标识,会不会让你瞬间出戏?

因此,这一条款,是否有必要细化,分门别类加以规定,对不当使用工具的人进行惩戒?另外,就像许多网友所呼吁的一样,“希望使用AI的人遵纪守法有道德”!人工智能技术本身并没有善恶,别被有心之人恶意使用。

从ChatGPT到文心一言,再到GPT-4和各类生成式人工智能,生成式人工智能被认为是降本增效的重要载体。目前,包括百度、腾讯、阿里、华为、京东、360等多家国内科技巨头均已宣布在生成式AI产业有相应布局。《生成式人工智能服务管理办法(征求意见稿)》的发布,让人看到有关部门完善生成式AI的应用环境,为生成式AI在国内应用创造条件的决心。但是,我们也要看到,要达到这个目标,需要各个环节的共同努力。不管是生成式人工智能产品提供者还是数据使用者,都应该抱着“向好”“向善”的决心和作为,共同完善数据生态,给生成式人工智能发展以更加宽松的空间。而不是让原本中性的科技来为自己不负责任的行为“背锅”。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1