5月8日,美国科技公司OpenAI公告称公司推出了一款可以检测图片是否是由自家AI生成的图片的AI图片检测分类工具,该工具主要用于甄别图像是由OpenAI的“文生图”工具DALL·E3生成的概率,该工具目前已经开放了部分内测名额。
来源:OpenAI官网
根据官网介绍,该工具在区分非AI生成图像与DALL·E3生成的图像方面成功率很高,成功率能够接近98%,同时只有少于0.5%的非AI图像被错误地标记来自DALL·E3。同时这个工具能够应付一系列常见的修改,例如压缩、裁剪和修改图像饱和度。从实验意义上看,这一检测工具的出现确实很有必要,当前的AI文生图的逼真程度越来越高,真假难辨,一些离谱的AI生成图暂且不论,已引发人们普遍担忧的是AI生成图对于人类知识库的污染问题,网络出现了大量看起来非常符合逻辑但实际上是AI生成的专业领域的图片,这些图片在社交平台上泛滥且被冠以错误的科普信息,比如AI生成的鸟类照片,并非是现实存在的鸟类但是被冠上错误的鸟类信息,这些图片、文字信息被更多智能聚合系统捕捉,当成了正确的、真实存在的鸟类信息加以传播,导致大众误以为有这么一种鸟的存在,科普工作者的科普、辟谣发声在高速传播的信息面前几乎起不到太大的作用。
但从目前的内测反馈来看,该检测工具的局限性也十分明显,目前能够检测的基本仅限于DALL平台生成的AI图片,若使用了其他AI大模型生成的图片加以检测,检测成功率会大幅下降。目前全球人工智能市场中活跃的人工智能大模型数不胜数,平台更是五花八门,该检测工具实际应用范围恐怕极为有限。值得肯定的是,OpenAI对其检测技术的局限性保持透明态度,并允许外部测试人员访问该工具以帮助改进。OpenAI表示,今年早些时候就已开始在ChatGPT和OpenAI API中为由DALL-E 3创建和编辑的所有图片添加C2PA元数据。并且将会在Sora推出时,也为模型整合C2PA元数据。
此前,国内外推出过众多利用AI技术检测AI生成内容的工具,但是目前来看并没有非常靠谱的工具出现,对于AI生成内容的辨识主要还在依靠人的经验,此前openAI曾推出过一款识别AI文本的检测工具,其开放应用后引发了众多连锁问题,有人将之应用在检测学生作业、论文是否为AI生成方面,但因其准确度并不十分牢靠,发生不少误判的乌龙,最终该工具被悄然下线。
实际上光靠人的经验来识别AI内容也很难说靠谱,AI以假乱真的程度实在是太高,开发检测AI的AI工具恐怕治标不治本,要解决这个问题还要从源头开始,我们更需要的是AI生成平台自觉地给所有AI生成的内容打上不可移除的AI溯源水印,不管是图像、音视频还是文本,一张AI水印将更有利于标记和识别非真实的内容。
近年来,随着生成式人工智能快速发展,AI内容愈发真实,AI换脸、AI变声等新型诈骗也层出不穷,确保数据安全和内容真实性也成为全球共识。中国相继出台《关于加强科技伦理治理的意见》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等多项法规和政策;4月23日,中央网信办再次强调要加强信息来源标注展示,使用AI等技术生成信息的,必须明确标注系技术生成。
扬子晚报/紫牛新闻记者 沈昭
校对 盛媛媛