当前位置:首页|资讯|生成式AI|ChatGPT

中信证券:关注生成式AI应用带来的安全需求,关注三个方向

作者:金融界发布时间:2023-04-09

原标题:中信证券:关注生成式AI应用带来的安全需求,关注三个方向

近期多国关注以ChatGPT为代表的生成式AI应用的数据安全问题。针对大模型训练、调优所使用数据的安全问题,我们认为,应结合数据采集、传输、存储等全生命周期,通过加密、数据水印等技术手段保护用户数据特别是隐私;针对大模型生成内容的可靠性、使用方式,我们认为,应对AI生成内容进行标记,同时对AI生成内容的可靠性及传播链路进行把关。推荐数据安全解决方案提供厂商、内容监管能力提供厂商、密码技术提供厂商。

▍ChatGPT快速出圈,多国开始关注生成式AI潜在数据安全问题。

今年以来,以ChatGPT为代表的生成式AI应用成为全球热点,科技企业围绕大模型正在展开竞赛,但生成式AI所涉及的数据安全问题开始成为各国政府或隐私监管机构所关注的重点问题。梳理近期意大利、美国等国表态,我们认为主要体现在两方面:

1)大模型训练、调优所使用数据的安全问题。如意大利个人数据保护局因年龄审核、数据和隐私安全等问题,宣布限制ChatGPT运营;加拿大联邦隐私监管机构宣布,OpenAI涉嫌“未经同意收集、使用和披露个人信息”。

2)大模型生成内容的可靠性、使用方式。如美国总统拜登近期与其科技顾问会面,讨论人工智能对个人用户、社会和国家安全带来的风险和机遇。

▍ChatGPT疑似数据泄露事件多发,数据全生命周期保护重要性强化。

根据韩国媒体《Economist》报道(转引自澎湃新闻),近日三星电子的半导体暨装置解决方案部门发生三起涉及ChatGPT误用与滥用案例,包括“设备信息泄露”和“会议内容泄露”;公司正在制定保护措施,防止通过ChatGPT发生信息泄露事件。此外,英国广播电视公司报道称,有ChatGPT用户看到其他用户的对话标题。由于大模型在训练、调优数据过程中涉及用户数据调用,我们认为,伴随生成式AI技术热潮掀起,在数据采集、传输、存储、处理、共享、销毁等数据生命周期各阶段,通过加密、数据水印等技术手段保护用户数据特别是隐私成为当务之急。

▍AI生成内容或涉及可靠性、使用方式等问题,内容监管逐步提上日程。

由于大模型在生成内容上的基于概率统计的原理,其内容可靠性可能存在问题,如引用的客观数据是否是最新且来源可靠的,AI生成的内容也可能反映社会上的偏见或成见,或引发事件争议。此外,AI生成内容怎样被合理使用也是近期的热点。例如,由AI生成的新闻图片出现在互联网中,真假难辨,或引发传播风险;欧洲刑警组织提示称,ChatGPT可能被滥用于网络钓鱼、虚假信息和网络犯罪。基于此,我们认为,针对AI生成内容的监管应逐步提上日程,具体包括对AI生成内容的明确标记或提示,对AI生成内容可靠性的把关及其传播链路的跟踪等。

▍风险因素:

AI生成内容遭到滥用;网络安全技术演进不及预期;监管政策落地进度不及预期;市场竞争进一步加剧。

▍投资策略:

生成式AI带动外界对数据安全问题的关注,包括大模型训练、调优所使用数据的安全问题,以及大模型生成内容的可靠性、使用方式。近年来,我国数据安全政策体系逐步完善并开始落地执行,基于安全与发展并重这一核心原则,我们预计大模型在国内落地应用,应前置考虑数据安全技术储备。推荐:1)数据安全解决方案提供厂商;2)内容监管能力提供厂商;3)密码技术提供厂商。

来源:券商研报精选


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1