2022年底以来,ChatGPT的爆火让AIGC风潮席卷各行各业,AI绘画、AI写作、AI编曲、AI主播、AI歌手以及文心一言、星火认知大模型等各类应用和产品如雨后春笋般涌现。人们畅想AIGC技术在内容生产方面可以带来质和量的飞跃提升,但技术落地中出现的信息失真、信息违法、隐私保护、侵犯版权等内容安全问题,也引发多方关注。
01
AIGC来势汹汹,信息安全风险事件频发
AIGC,即AI Generated Content,意为人工智能自动生产内容或生成式人工智能。在此之前,互联网内容生产方式主要为PGC(专业生产内容)、UGC(用户生产内容)等模式。可以说AIGC的出现,打破了人类创作能力的界限,在大幅提高内容生成效率的同时,降低了内容创作的门槛,是互联网内容生产模式的一次重大变革,甚至AIGC被认为将是未来内容生成的主力。在国内,与ChatGPT和AIGC相关的话题持续受到关注和热议,受资本市场青睐、众多企业入局、公众热情不止等多方影响,AIGC发展已势不可当。
但随着相关技术和产品落地应用,AIGC“双刃剑”的特征显现。ChatGPT发布之初,就有国内网友指出其存在“一本正经地胡说八道”,如将王勃《滕王阁序》的诗句说成是出自王之涣《登鹳雀楼》;3月份一条“女子地铁照被AI一键脱衣”的消息登上热搜,引发舆论对AI作恶的讨论;4月份一男网红通过“AI换脸”伪造自己与女明星接吻视频,遭到大量网友指责和攻击;5月份甘肃省公安机关侦破首起用ChatGPT炮制假新闻案件,有媒体表示应警惕AI成最强造谣机;此外,“AI歌手”翻唱作品近日爆红网络,引发对侵权问题的广泛讨论。
放眼国外,信息安全风险事件同样频发。2月份,谷歌发布的AI对话工具Bard因在产品功能展示过程中给出了事实性错误答案,导致谷歌公司股价暴跌。据媒体报道,今年以来美国、加拿大等曾频繁出现利用AI合成语音、视频进行诈骗的案件,诈骗多针对受害人亲属、杀猪盘以及思维退化的老人等。AI工具甚至曾生成过“特朗普被捕”的虚假照片,在社交媒体掀起轩然大波,并引发大量争议。
可以看到,AIGC带来技术红利的同时也产生了信息出错、信息造假、违法行为泛滥等多重风险。究其原因,一方面是技术本身可能产生虚假错误信息,人工智能自动生成信息的真实性和准确性目前难以保证。受相关大模型的海量训练数据掺杂错误、基于概率的信息生成模型存在固有缺陷等影响,机器人“一本正经胡说八道”的现象短期内将无法改变。而一些简单、明显的常识错误影响有限,但一些涉及食品、药品、交通等安全方面的专业知识一旦出错,可能会产生严重后果。
另一方面是技术被人为使用,可能带来突破道德底线、违法侵权等问题乱象。目前,部分开源的AIGC项目对生成的图文视频监管程度较低以及一些“黑产”利益的存在,用户诱导AI生成不良信息,通过AI合成制造虚假音视频图像进行诽谤、诈骗、传播谣言等行为已屡见不鲜,色情、血腥、暴力、仇恨等不良和有害信息滋生,严重危害互联网平台的内容生态。受困于当前AIGC产业监管法律法规与标准体系不健全,部分违法侵权行为存在一定滋长空间。
02
国内监管快速推进,内容安全被强调重视
目前AIGC技术和产品仍在探索发展阶段,但相关风险问题已引发多方关注,国内相关监管动作已密集展开。1月10日,国家互联网信息办公室、工业和信息化部、公安部联合发布的《互联网信息服务深度合成管理规定》正式施行,为互联网信息服务深度合成的规范发展提供了基本遵循和法律依据。4月11日,国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见,成为国内首份专门针对AIGC的监管文件。此外,5月9日,抖音官方发布了《抖音关于人工智能生成内容的平台规范暨行业倡议》,成为国内首个针对人工智能生成内容的平台规范。
涉及内容安全方面,相关文件均有重点表述。面对AIGC内容以假乱真、真伪难分的问题,相关文件提出,要求技术提供者和信息发布者对人工智能生成的产品进行标识,以方便进行判断区分。针对信息违法违规问题,相关文件强调了生成式人工智能产品训练数据及生成内容的真实性、合法性,并划分生成式人工智能产品服务提供者和发布者的不同责任。在用户隐私保护方面,相关文件提出,提供生成式人工智能产品或服务应当禁止非法获取、披露、利用个人信息和隐私、商业秘密。
03
AIGC合规发展,内容审核技术筑牢安全屏障
信息技术快速发展带来的是互联网信息的爆炸式增长,不良和有害信息滋长,也催生了互联网内容安全审核技术的产生。对内容平台来说,内容安全是底线和生命线,内容审核则是守好这条线的最后一道防线。以网晴内容安全大脑等为代表的内容安全审核平台,凭借完善的审核模型、丰富的审核维度、精准的识别效果,不断贴合用户实际需求,推动内容安全审核技术在媒体发稿、涉政信息审查、直播监管、电商购物、发帖评论、即时通讯等多种场景落地。
随着AIGC引领的web3.0时代加速到来,信息生成效率和数量将大幅提高,人工智能将深度融入社会方方面面,内容安全审核技术需求和应用场景也将进一步拓展,这对相关技术企业来说是机遇也是挑战。作为一家内容安全审核专业技术公司,网晴科技针对AIGC技术应用落地,推出AI训练数据合规标注、人机互动场景信息高效审核、信息安全预警机制、重要信息专业人工快速复审、内容安全巡检等系统化解决方案,确保AIGC技术产品生成内容合法合规。面对内容安全痛点问题,网晴科技不断迭代升级安全技术,推动人工智能在内容审核领域快速发展。
针对违法违规内容审核,网晴内容安全大脑实现音频、视频、图片、文字等信息类型审核全覆盖,拥有亿级自有敏感词库,并且使用语义识别、知识图谱识别等创新审核算法,根据不同场景运用不同的策略模型、语义推理模型,有效避免涉政违规、违禁暴恐、低俗色情、不良价值观、不良广告等多种内容安全风险。
针对错误虚假内容审核,网晴内容安全大脑基于系统储备的涉政知识库,可以实现对涉政信息深度校审,发现涉政信息隐藏风险;同时还提供“AI+人工”双重审核服务,资深新闻编辑人才和行业专家把关,对错误虚假信息进行标注,避免错误信息直接输出。
针对用户隐私内容审核,网晴内容安全大脑通过身份信息识别模型,可对姓名、住址、身份证号、手机号、银行卡号、人脸信息等信息进行精准识别,对相关信息传播进行预警提示,避免个人隐私信息被公开展示。
目前媒体、游戏、旅游、金融、科技、制造业等多个行业已展现出拥抱AIGC的良好势头,开源构建生态成为多方共识。面对AIGC内容审核质与量的挑战,网晴科技将在人工智能、大数据方面持续发力,推动信息技术在内容审核领域迭代升级;同时依据相关法律规范,丰富和完善具体细分行业审核标准,共同筑牢互联网内容安全屏障,共同促进AIGC行业健康发展。