最近,AI(人工智能)制造的假新闻、假视频引发不少事端:广州一女子在地铁上拍摄了一张衣着正常的照片,别有用心之人看到后用AI软件“一键脱衣”,给当事人带来严重影响;有人用ChatGPT写了一条“杭州市政府将取消机动车尾号限行政策”的假新闻,让不少人信以为真。
当前,AI技术尚未普及,但其制造的假新闻越来越逼真。从理论上看,AI有潜力成为“造谣高手”,写假新闻、造假图、注册水军账号、转发评论制造热点,甚至可以比真人做得更快更好。“造谣一张嘴,辟谣跑断腿”,假如不法分子用AI大量传播假消息,轻则混淆视听,重则影响社会稳定甚至危害国家安全。
AI发展正在加速,AI治理也需要提速。ChatGPT3.5版本提交的答卷尚不及格,4.0版本已能写出高考作文二类卷,两个版本之间仅仅间隔6个月。面对AI的“狂飙”,千余名业界人士近日发表联名信,呼吁暂停训练更强大的AI,留出时间建立治理系统。“刀能救人也能伤人”,只有为AI把稳发展方向,划定红线禁区,才能确保其成为“技术红利”而不是“技术威胁”。
为AI“稳舵”,不妨从整治AI写假新闻着手。先把AI写假新闻治理好,再逐步研究新问题,不断完善AI治理体系,是一条可行的治理方式。整治AI写假新闻,需要研发方与监管方共同努力。研发方是主力军,既要念“生意经”也要念“道德经”。正如设计一辆汽车不能只安油门不装刹车一样,AI在研发之时就应考虑如何防止技术“作恶”,比如可在生成的文本、图片中设置特殊“水印”,以供查询“真假”或溯源。监管方要不断适应新技术新变化,确保有法可依,提升执法能力。今年1月10日起施行的《互联网信息服务深度合成管理规定》,对深度合成服务作出明确限制。在治理实践的基础上,应及时将政策上升为法律,为执法提供依据。同时,执法也需要不断创新,加强与研发机构的合作。注重统筹资源、协同治理。
“扬帆”与“稳舵”并不矛盾,对技术的盲目乐观与恐惧都不可取。AI快速发展也需规范发展,我们应在立规矩上多下功夫,不断解决新技术带来的新问题,为AI健康、可持续发展保驾护航。