今天分享的AI系列深度研究报告:《IBM-CEO生成式AI行动指南:网络安全》。
(报告出品方:IBM)
报告共计:9页
海量/完整电子版/报告下载方式:公众号《人工智能学派》
以毒攻毒确保网络安全
不同于以往的任何技术,生成式A 正在迅速颠荐商业和社会形态,迫使企业领导者刻不容缓地重新思考其假设、计划和战略。为了帮助 CEO 们学握快速变化的形势,IBM 商业价值研究院(IBM IBV)发布了一系列有针对性、基于研究数据的生成式 AI 指南,涵盖数据网络安全、技术投资策略和客户体验等主题。
生成式 AI 既加剧了风险,也增强了韧性
生成式AI性生了一系列新兴网络威胁。黑客获得了更多的机会来利用漏洞,也可以通过更多的方式来执行恶意活动。
幸运的是,反之亦然:生成式AI可以加强企业的防御能力。在短期内,生成式AI将让曾经一度繁重的安全流程变得更加高效。通过分析海量数据并识别模式和异常,生成式AI可以及时发生新出现的威胁。
随着恶意行为者不断采用新的攻击方式,网络安全团队也需要与时俱进,跟上最新的安全形势。在这场猫鼠游戏中,时刻保持警觉将是管理漏洞并保持领先一步的关键。
生成式 AI 引入全新的风险与威胁。
生成式AI为网络攻击者提供了全新的武器库。当今的黑客不再仅仅是伪造电子邮件,而是可以模仿声音、面孔,甚至个性来诱骗受害者。
而这还只是开始。
随若生成式AI在未来半年到一年内持续普及,专家们预计新型入侵攻击将达到前所未有的规模、速度、复杂性和精密性,各种新的威胁形式也会不断涵现。从可能性和潜在影响的角度来看,大规模发起的自主攻击将成为最重大的风险。不过,受访高管们预计,黑客伪造或目充可信用户将对业务产生最大的影响,其次是创建恶意代码。
组织实施生成式AI的方式也可能会带来新的风险。事实上,47% 的受访高管担心在运营中采用生成式AI会引发针对其组织自主AI模型、数据或服务的新型攻击。几乎所有受访高管(96%)表示采用生成式AI可能会在未来三年内导致其组织出现安全漏洞。
全球数据泄露的平均成本为445 万关元,关国更是高达948万美元。在此形势下,许多企业正在加大投资力度,以应对新兴网络安全风险。受访高管表示,其组织2023年的AI网络安全预算相比2021年增加了51%。而且,他们预计到2025年这一预算将再增加43%。
将生成式 AI 视为迫切需要加以保护的重要平台。
敦促网络安全领导者紧急行动,即刻着手应对生成式AI的风险,而不是采取分步措施。
理解当前的AI 风险状况。举办事会级会议,召集网络安全、技术数据和运营领导者共同讨论不断演化的风险,包括生成式 AI的哪些使用方式有可能暴露敏感数据,并允许以未经授权的形式访问系统。让每个人都了解新兴的“对抗性”人工智能一即便是在核心数据集中引入几乎察觉不到的细微变化也可能会导致恶意结果。
确保整个AI管道安全无虞。专注于对用于训练和调优AI模型的效据进行保护和加密。在模型开发过程中持续扫描漏洞、恶意软件和损坏并在模型部署后监控特定于AI的攻击(例如数据污染和模型盗窃)。
投资部署专为保护AI而设计的新型防御措施。尽管可以通过扩展现有的安全控制和专业知识来保护支持 AI系统的基础架构和数据,但检测和阳止针对AI的对抗性攻击就需要采用全新的方法。
报告共计:9页
海量/完整电子版/报告下载方式:公众号《人工智能学派》