(来源:天津数港)
今年以来,生成式人工智能AIGC在国内广泛落地。在产业端,不少互联网平台以“百舸争流”之势,纷纷推出AIGC大模型,涉及人们衣食住行等许多领域。
根据大数据协同安全技术国家工程研究中心发布的报告显示,目前大语言模型面临多种风险,包括提示注入攻击、对抗攻击、后门攻击、数据污染、软件漏洞、隐私滥用等。在主流AI框架中,发现200多个漏洞,影响超过40亿终端设备。
诈骗分子也盯上了AIGC的“蛋糕”,相关诈骗案件时有发生。最近,在包头警方发布的一起案件中,福州某科技公司老板郭先生,遭遇“AI换脸拟声”诈骗,10分钟内被骗转款430万元。据郭先生说,骗子通过AI换脸和声音模拟技术,用自己好朋友的身份打视频电话,说在外地竞标,让郭先生通过“公对公”账户转款——由于这位“AI朋友”逼真得足以“以假乱真”,加上自己的信任,郭先生转了款。很快他意识到受骗后报警拦截,仍然有93万元被转移。
这类AI生成技术诈骗在多地都有发生,除了“换脸拟声”,AI还能实现按理财、相亲等需求属性,智能筛选受害人、生成诈骗脚本。
本月中旬,多部委联合发布了《生成式人工智能服务管理暂行办法》(以下简称《办法》)。其中亮点是——对AIGC的数据标注、模型预训练、模型训练、提供服务等各环节,提出“包容审慎”和“分级分类监督”的管理原则,并对安全评估、算法备案提出明确要求。《办法》对生成式人工智能的生态治理将产生重大影响,并将与多部法律形成对生成式人工智能服务的监管框架和多层级、多角度的法律治理体系。
除了人工智能,最近的行业热点还有“大数据安全”。去年底发布的“数据二十条”,提出构建数据产权、流通交易、收益分配、安全治理四项制度。
当前,大数据安全的逻辑正在“重铸”——面临三大挑战。
第一,安全风险难看清。传统网络安全主要防范的是外部攻击,应对方法是研究攻击样本、方法,建立黑白名单、行为基线。但数据安全涉及内外部数据的内容,无法建立黑名单、白名单。
第二,数据平台“内鬼”难防。有数据显示,82%的数据泄露事故与“内部员工”有关,比如“管理员、技术员、操作员”,他们的权限可以躲避防火墙等检测。这意味着传统的物理安全边界消失,内外网、云上、各种数据库里,接触的人变多,监控范围和身份验证难度加大。
第三,外部攻击难防范。传统的网络安全攻击手法相对单一。数据安全时代,黑客的攻击方式、节点多元——既可以把数据“偷出来”,也可以进入“数据箱”中给数据加密“上锁”,用于勒索。AI技术的迭代飞跃,让黑客技术、攻击手法不断提升。
数字智能时代,数据要素不断流动,既要保护隐私;又要防止过度“去隐私”,数据失去价值。如何实现? 国内安全领域的院士、科研人员和企业家提出了三个建议和方向。
第一,数据交易模式创新,保护“元数据”,数据不动程序动。也就是根据需求,在相对封闭和安全的环境下,安全平台用自己的隐私数据计算出价值模型和数据沙箱,满足绝大部分数字经济交易场景。如果具体一点比喻,就像生活中用打车、外卖软件时,交易双方在平台上的号码是虚拟号,不会侵犯隐私,也不影响服务本身。
第二,对企业员工加大安全教育。一方面,是加强对外部的攻击和窃取的防范;另一方面,是法治教育,明确“数据资产”的价值和红线,以及逾越红线的法律后果,警钟长鸣。
第三,想方设法,应对安全人才缺口挑战。去年发布的《网络安全人才实战能力白皮书》预计,2027年我国网络安全人才缺口达327万人。对此,国内多位安全产业专家和企业家提出了两种路径:一方面,发挥通用人工智能在安全领域的作用和潜力,一定程度上让基层数字安全进入“自动驾驶”模式;另一方面,发挥体制优势,把知名大学、国家实验室、科研机构、科研体系,和科技公司结合,打造“政、产、学、研、用,理想主义+实用主义”的科研生态和人才培育机制。
来源:央广网
天津数港
数据驱动智能,创新引领未来
编辑:时悦 裴丽艳
审核:邓晶龙