AI大模型爆发式发展不只是带来人们对人工智能未来的憧憬,更引发了一系列的担忧,AI监管、隐私安全等话题不断成为人们讨论的焦点。
国内外大模型密集发布
人工智能爆发式发展
自ChatGPT发布引发AI技术革命以来,全球科技巨头都在该领域展开了疯狂的竞赛。
2023年4月10日,在商汤技术交流日活动上,商汤科技董事长兼首席执行官徐立宣布推出大模型体系“商汤日日新大模型”,包括1800亿参数中文语言大楼型应用平台“商量SenseChat"、文生图生成模型“秒画”、3D内容生成平台“宇”(场景生成)、“格物”(物体生成)。
4月11日,阿里巴巴集团董事会主席兼CEO、阿里云智能集团CEO张勇在云峰会表示,阿里巴巴所有产品未来将接入“通义千问”大模型,进行全面改造。目前,钉钉、天猫精灵等产品已接入通义千问测试,将在评估认证后正式发布新功能。
4月13日,知乎在北京召开“2023知乎发现大会”,首次公开旗下与面壁智能共建的大模型产品“知海图AI”。官方表示,在热榜上抽取、聚合知乎用户回答的41条内容,“知海图AI”的表现基本接近ChatGPT-4。
4月13日,亚马逊AWS推出生成式AI平台Bedrock服务,支持用户通过API访问亚马逊自己的Titan(泰坦)大模型;同时支持调用来自AI21 Labs、Anthropic、Stability AI等第三方的多样化模型。Bedrock一个核心特征是支持企业自定义基础模型,只需少量数据就完成模型定制化和微调。
国内外大模型的密集发布,表明当前人工智能正在爆发式发展,而就在这背后,各种各样的问题一直引发着巨大的讨论。
大佬发声、商密泄露、国家限制...
AI监管日益紧迫
从大规模收集数据是否合法到隐私泄露风险,再到人工智能未来到底可不可控,人们对其不断的质疑,使得AI发展又来到了一个命运的分岔路口。
意大利此前明确表示,没有任何法律依据显示,为了“训练”平台背后的算法,而大规模收集及存储个人数据是合法的。同时,尽管OpenAI发布的条款——“机器人是供13岁以上的用户使用”,但是ChatGPT软件本身并没有年龄核实系统来验证用户年龄,会让未成年人接触到不合适的内容。爱尔兰、英国、德国均表示出了同样的担忧,欧盟正在针对人工智能进行相关立法,并表示人工智能需要受到更严格的监督。
据外媒报道,三星的半导体部门员工使用ChatGPT进行公司敏感数据库源代码的检查,并请求代码优化等。聊天GPT数据政策声明,除非用户明确选择退出,否则会使用他们的提示来训练其模型。因此,公司隐私数据存在泄露的风险。
此背景下,意大利于3月31日宣布封禁ChatGPT的使用,4月12日,意大利数据保护局对OpenAI提出了一系列需要在本月底前,满足包括OpenAI需要向意大利用户告知ChatGPT运作所需数据处理背后方法和逻辑在内的具体要求。
除意大利外,西班牙国家数据保护局13日发表声明,称该机构已经正式对ChatGPT可能违反法律行为展开初步调查程序;同一天,法国国家信息自由委员会也决定对ChatGPT提出5项指控,并展开调查。从各国声明不难看出,由于ChatGPT等智能化工具已暴露出跨境数据泄露等风险,数据安全将成为后续监管的关键。
另一方面,马斯克等科技大佬同样呼吁暂停开发功能更强大的AI系统至少6个月,呼吁在其开发部署中提高透明度和问责制,并加强公众投入和监督管理。
4月11日,美国商务部也发布了“人工智能问责政策”征求意见稿,就是否需要对ChatGPT等人工智能工具实行审查、新的人工智能模型在发布前是否应经过认证程序等问题征求意见。
国内同样在同步跟进监管,公开征求监管意见,促进AIGC健康发展。
4月11日,网信办发布关于《生成式人工智能服务管理办法(征求意见稿)》(简称“《办法》”)公开征求意见的通知,促进生成式人工智能健康发展和规范应用。
官方首次聚焦生成式AI,进一步明确法律边界和责任主体。在法律边界层面,《办法》是《网络安全法》、《数据安全法》和《个人信息保护法》等在生成式AI领域的延伸,有助于加强生成式AI领域的内容及数据保护。在责任主体层面,《办法》提出利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等的组织和个人,应当承担该产品生成内容生产者的责任。提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。
AI产业浪潮下
网安格局已产生巨变
本轮AI产业浪潮下,网络安全产业在攻击侧、防守侧都产生了化学反应。
首先在攻击侧,大模型、GPT、生成式AI技术将大幅降低黑客攻击的门槛,包括批量钓鱼邮件生成、批量漏洞挖掘、批量恶意代码生成、批量威胁特征组合等等,通过赋能新手黑客,显著加剧了整体威胁态势,进而带来各类安全软硬件需求以及政企安全预算的提升。
其次在防守侧,大模型、GPT、生成式AI等技术将促使未来安全产品的形态发生重大改变,而“安全大脑”在整个安全体系里面的地位将逐步提升。此前Security Copilot的发布预示着安全管理平台类产品的又一次进化,能够大幅降低安全管理工具的使用门槛,让安全人员能够通过自然语言交互的方式来实现漏洞识别、威胁检测、安全响应、内部协同等多种操作,并且实现降本增效。其中主要涉及到SOC、态势感知、XDR等产品。
这意味着,随着深度合成和生成式AI技术的开放开源,深度合成和生成产品以及服务的增多,技术门槛快速降低,技术逐渐“平民化”。深度合成和生成式AI技术被滥用的可能性提高,造成安全风险与实质性危害,包括制造虚假视频、语音进行诈骗、勒索的违法行为不断增多,给个人、企业造成肖像、名誉等人格和财产权益损害。加上部分企业将内部数据直接输入对应AI模型,或将导致数据的泄密风险。
因为,AI监管的需求将会伴随生成式AI的需求增长而增长,呈现“矛”和“盾”之间的螺旋上升关系。未来无论是出现新制度来管理生成式AI技术本身,还是管理AI大模型在行业侧的落地应用,都将推动网络安全的发展。
根据IDC数据,2021年中国网络安全市场总投资规模为122亿美元,预计2026年将达到319亿美元,2021-2026年规模增速CAGR为21.2%。随着AI监管政策落地,数据安全、隐私保护等安全需求将进一步上升,网络安全防护范围、防护主体将进一步扩大,有望打开行业成长新空间。
具体到产业链环节
三大领域确定性靠前
首先是对数据获取的安全合规性,由于AI模型需要大量数据的训练,在使用过程中也需要上传数据获取模型输出结果,因为针对企业内部在使用AI大模型时候上传数据的安全和保密性需求将会持续提升,利好像启明星辰、安恒信息、奇安信、深信服、安博通等数据安全和加密类企业的需求增长。
其中值得注意的是,4月14日,国务院总理李强主持召开国务院常务会议,审议通过了《商用密码管理条例(修订草案)》。会议指出,要全面贯彻总体国家安全观,进一步规范商用密码应用和管理,督促平台企业依法履行用户密码保护责任,确保个人隐私、商业秘密和政府敏感数据的安全。
对于生成式AI而言,商用密码一方面有望用于对输入模型的数据本身进行加密脱敏等防护工作,甚至未来结合隐私计算等技术实现AI模型训练的数据可用不可见。另一方面,针对模型输出的生成式文字、图片和视频,密码技术也有望赋能,实现内容的唯一性、完整性和不可抵赖性的认证,三未信安、格尔软件、信安世纪之类的商用密码企业参与度同样不低。
其次是在对人工智能模型的可解释性和透明性方面,目前的AI大模型均是基于深度学习搭建,其中的决策机制和过程尚不透明,模型的可解释性较差,这对于AI的应用构成了比较大的挑战。未来针对AI模型可解释性的研究也将会持续发展,利好AI算法类企业的突破。
最后是对人工智能生成内容的识别和审核方面,由于AI模型本身是否具有歧视性和偏向性尚存在争议,因此对于人工智能生成内容的识别和审核需求将会提升,包括反生成式AI系统在内的产业将会受益,目前美亚柏科等公司已在布局该领域。