有关部门就《生成式人工智能服务管理办法(征求意见稿)》,向社会公开征求意见。多个朋友发表了自己的看法。某人让我也说几句。生成式人工智能,AI generated content,简写为AIGC(下文中用“AIGC”代表“生成式人工智能”)。
首先,在大模型初期,就出台类似的管理规定,积极探索相关领域的监管,这一点,应给一个大大的赞,反面例子,互联网金融P2P在行业快速发展期间,有关部门未能尽早发现其可能存在的风险和危害,而等行业问题突出时,又紧急加强管理,又直接将P2P清零,但整个P2P概念生命周期,给各方带来了不小的损失。
其次,虽然此前已出台并实施《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》、《互联网信息服务算法推荐管理规定》,但对于AIGC这样的新兴事物,服务链条还存在不少变数,不确定因素很多,这对相关行业监管规定提出了挑战。
以下回到《生成式人工智能服务管理办法(征求意见稿)》。
一、AIGC,涉及技术、产品、服务,等多个环节,可能是由不同主体提供,各方的责任和义务不同,需要有更清晰的界定。
二、AIGC服务涉及三个主体:AIGC模型提供方、AIGC服务提供者及使用者。该征求意见稿,将前两者统一称作“提供者”,但对提供者提出了“监管”使用者的要求,但AIGC与微博、聊天室、搜索引擎不同,AIGC的内容生成和使用是分离的。应明确提供者和使用者的不同责任,尤其是使用者的责任。
三、意见稿对AIGC平台及生成内容提出了详细的要求,需注意在实施过程中的红线、黄线确定,以免因为内容缺乏多样化,而导致极端内容的出现。从统计学角度看,对于不断迭代优化的生成式工具来说,如果没有足够的内容对冲或纠偏,可能导致偏差的几何级数式累积。
四、目前国内的AIGC仍处于起步阶段,除明确的红线区域外,应鼓励提供者通过多样化的内容、产品或服务,寻找个性化的商业模式。
第四条中,(三)与其他差距较远,且已有相关的上位法,可以略掉。(四)对AIGC 生成的内容要求“真实准确”,这很难界定,例如,你花五元钱买了一袋盐,这是事实,应该“真实准确”,但推测“现在的盐价上涨了”,这可能是基于个人感受,很难直接判定“真实准确”或“谣言”。AIGC基于不同的信息源,也可能得出不同的结论。不能按对媒体、网络原始内容的要求要求AIGC生成的内容。
第九条,“要求用户提供真实身份信息”,如果对通用型对话式AIGC是合理的,与聊天室、微博等的要求一致。但AIGC涉及领域很多,例如,我单纯地在本地把Word文档中的数据表格转变成Excel图自己用,这也属于AIGC的范畴,仍要求提供真实身份信息并不合理。
第十条,建议删除或修改,因为“依赖”和“沉迷”都属于无标准、难界定的区域。
第十二条,过于简单,非歧视应该是所有服务都应该遵守的规范。
第十八条,该要求是针对使用者的,提供者难有效约束,尤其是“不进行商业炒作、不正当营销”,提供者难对具体行为加以界定。
第十九条,与第十八条类似,提供者并没有足够的能力跟踪使用者的在其他领域的行为。