当前位置:首页|资讯|AIGC

AIGC数据安全风险与治理对策

作者:可爱的仓鼠球发布时间:2024-06-19

以 ChatGPT 为代表的 AIGC 成为新一轮科技革命和产业变革 的重要驱动力量,深刻改变着社会的生产生活方式。同时,一 系列安全风险也相伴而生,不仅加剧升级了传统数据安全风险, 还催生了诸多新型复杂风险,给治理体系带来更大挑战。建议 把握 AIGC 的技术特性和传播规律,从三方面持续提升治理能力: 一是制定更具针对性的治理政策,完善制度保障;

二是将“敏 捷治理”应用到对 AIGC 的监管全过程,打造多元协同治理体系; 三是运用先进的技术手段,不断提高治理效能。 一、 AIGC 技术和应用重塑数据安全形势 区别于过往 AI 技术,AIGC 可通过对数据的识别学习,以适 当的泛化能力生成文本、图像、音频和视频等多模态内容,这 种技术革新在展现出强大创造力、生产力的同时,也带来了诸 多超越传统治理边界的新挑战,深刻改变了数据风险形势。

(一)加剧了传统数据安全风险 一是 AIGC 升级造假手段,虚假信息更难识别。AIGC 表达 方式贴近人类的对话风格与思维逻辑,内容呈现包含图文、音 视频等多种模态,导致甄别信息真伪的难度较以往大大提高。 这就造成,一方面网络舆情治理难度明显增加。AIGC 使用门槛 低、内容生成效率高,能够在短时间内编制大量虚假信息,导 致官方辟谣等传统虚假信息治理措施难以发挥预期作用。

例如 此前被广泛转发的“杭州取消限行”新闻,就是使用 ChatGPT 编 写的不实信息。另一方面网络诈骗防范难度显著提升。深度伪 造(deepfake)等技术的恶意使用可生成极具欺骗性的视觉和 音频内容,香港一起涉案金额高达 2 亿港元的多人 AI 换脸视频 诈骗案就尤为典型1。这不仅危害个人权益,也对监管带来极大 威胁,银行视频身份验证、案件视频证据等的可靠性将面临巨 大挑战。 二是 AIGC 增加隐私风险,隐私防护难度加大。大模型已 达千亿级参数,训练、应用和优化的全处理流程中涉及海量个 人信息,为不当收集、隐私泄露等常见问题增添了新的风险敞 口。

一方面信息收集更“无感”。用户与 AIGC 进行问答时有时会 不自觉地透露个人信息、商业机密等隐私信息,而为了实现智 能化和个性化交互,AIGC 往往会对这些数据进行记录、存储、 学习,给用户的隐私带来严重威胁。例如,英国国家网络安全 中心就明确指出 OpenAI 等公司能够读取用户聊天中输入的查询内容2。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1