当前位置:首页|资讯|生成式AI|人工智能|ChatGPT

生成式AI 的监管,应是“中游监管”

作者:新京报发布时间:2023-04-25

原标题:生成式AI 的监管,应是“中游监管”

ChatGPT生成式AI,是当下的业界热点。

ChatGPT模型的训练数据源于互联网,就有可能把网络上的偏见、不道德的文字数据,引入到对话中。因此,需要制定相应的法规和规范,从数据采集、模型训练到具体应用过程中,加强监管以确保ChatGPT技术的可持续、健康发展。

应该看到的是,现在一些舆论为了吸引眼球,故意渲染焦虑与恐慌,这可能会导致过度的监管,对生成式人工智能服务者提出过高的合规义务,进而影响中国在chatGPT领域达到世界一流水平。显然,这就与监管的目的背道而驰了。监管的目的,在于约束可能的负面因素,进而促进、鼓励发展我国的人工智能发展。

所以,应该厘清chatGPT的风险点的特征,认识风险,才能以最小的代价实现安全,避免过度监管。

生成式AI生成的内容,必须真实准确吗?

生成式AI本质上是基于概率组合。AI根据历史语料及语料中的文字概率分布来生成内容,它并不能理解内容,也就无法完全保证生成结果的准确性和稳定性。

通过规则干预能够过滤掉已知的坏信息,对未知badcase可以通过模型进一步优化,达到一定程度降低出现badcase的概率,比如通过RLHF(基于人类反馈的强化学习)以及搜索增强等方式,可以尽可能提高输出内容准确性的概率,但始终无法100%保证真实准确。这一点世界上任何一家生成式AI都无法做到。

生产式AI难以“溯源”

一个有十万用户的网站,每天新生成的网页并不会太多,网站很容易对内容进行管理。微博,虽然用户每天发送的微博以亿计算,但人的行为是相对稳定的,事后监管,也很容易找到相应的用户,消除风险点。所以,微博这种用户生成式业态,监管成本虽然比网站大了很多,但还在接受范围之内。

但是,当下人工智能深度学习已经越来越复杂,这带来的一个特征就是,它已经接近一个黑箱,即便是研发者也很难逆向去解析它,找到出问题的地方。更简单地说,找到风险用户容易,不影响产品继续运营,但要审查每一条生成内容,找到AI出问题的机制,恐怕要花上好几个月,甚至一两年的时间。所以,过度的准确性合规要求,在生成式AI发育探索初期,会抑制模型能力的挖掘和应用层面的创新,甚至使得成本巨大,让整个生成式AI在技术上、商业上都无法运行。

标注生成式AI内容,会降低行业价值

有观点认为,只要对AI生成的图片、视频标识等内容进行标识,就可以避免以假乱真,发布各种虚假信息。

AI对产业的影响非常快,现在已经有公司开始裁剪原画师了。AI生成的内容,会大量用于海报、视频、电影。

如果一刀切强制要求对AI生成的图片与视频加上标识,哪怕在图片、视频的下方有一个小小的水印“AI生成”标识,也会让观众出戏,影响体验。另一方面,别有用心的人很容易擦除标识。如果把水印铺满,那就不是影响体验而是整个AI生成的内容不可用。

实际上,现在人工借助计算机,已经可以大量地生成以假乱真的图片与内容,这些内容现在并不需要标识,也没有造成社会大乱。这还会带来法律逻辑上的混乱,比如,AI生成的图片、视频,拿去人工稍微修改一个像素,这算人工生成还是AI生成呢?如果AI生成内容要标识,为了在逻辑上堵住漏洞,photoshop生成的内容要不要标识呢?美颜相机要不要标识呢?

某种程度上,这些风险,内生于AI,是无法根除的,不过,也不是没有高效的办法去应对。

用“中游监管”解决以上风险

生成式人工智能的内容发布有两个特征。一,它生成的内容,不像网页那样面向大规模受众,而是仅面向一个用户。二,它提供的是素材,扮演的是助手角色,如果该内容会向公众发布,仍然由发布人负责。

所以,对于生成式AI监管,“中游监管”就足够了。在国内完善的监管下,内容的发布是高度有序的,只要管控好“下游”最终发布渠道,就不会有新增风险。

如果要求AI产品的开发者,要对他人利用AI自行生成的文本、图像、声音承担作为“内容生产者的责任”,这就相当于把监管,不是放在ISP层面,网站层面,而是放在了WORD、WPS、输入法、photoshop层面,要求这些公司对最终发布的内容负责。显然,微软、金山、搜狗、Adobe都做不到这一点。

其实“中游监管”的思路,早有应用。《深度合成规定》第六条就是一种“中游监管”思路,可以参考借鉴。第六条规定,“任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。”“利用”两个字,点清楚了深度合成的“中游”特性,从这个角度去监管,就能以最小的代价得到最大的收益。

中国AI的发展,需要保驾护航而不是红旗法案

19世纪末,汽车刚出现的时候,由于技术不成熟,制度、人未适应,车祸较多。1865年,以公共安全为由,英国议会针对汽车制定了史上第一部机动车道路安全法规。法规规定,汽车时速不得超过4英里(6.4公里);必须有3人驾驶,其中1人要在车前50米,不断摇动红旗,为机动车开道。这就是著名的《红旗法案》。《红旗法案》不但影响了英国交通的发展,还使得英国汽车业在此后三十年里一蹶不振,被德国、法国、意大利,以及后来的美国彻底超过。

显然,当下中国的AI赶超,需要保驾护航,而不是红旗法案。

某种程度上,我们现在所说的创新,都是一种追赶式创新,它避免了最大的“不安全”——跑错赛道、选错技术发展树的风险。正因为避免了这种试错的风险,所以,只要开足马力,就能很快地接近、达到甚至超过技术原创国家。这就像用一辆F1全开油门去赶超普通跑车。

但是,如果在这个过程中,加上了不必要的负担、成本,就会影响赶超的过程,可能导致差距越来越大。这就像给一辆F1方程式赛车加上200公斤的安全框,配上副驾驶安全员,再规定不准踩死油门,不准快速过弯,那就肯定赶不上已经在前面的普通跑车。而如果国内没有替代,最终所有的需求都会转向其他国家的公司。

文/财经评论人 刘远举

编辑 陈莉 校对 柳宝庆


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1