新闻摘要:
· 思科《2024年数据隐私基准研究报告》显示,大多数企业因数据隐私和安全问题限制使用生成式人工智能(GenAI)。27%的企业到目前为止,暂时禁止使用生成式人工智能。
· 48%的企业承认在生成式人工智能工具中输入了非公开的公司信息。
· 91%的企业意识到需要采取更多措施,向客户保证他们的数据在人工智能中仅用于有预期的合法目的。
· 98%的企业表示外部隐私认证是影响其购买决策的重要因素,这一数据达到近年来的最高水平。
2024年3月22日,北京——日前,思科发布了《2024年数据隐私基准研究报告》,该报告是对企业关键隐私问题及其业务影响的年度全球调研。调研结果体现了面对生成式人工智能,人们对隐私与日俱增的担忧,企业在使用人工智能时所面临的信任挑战,以及隐私保护领域的诱人投资回报。根据12个地区2600名隐私和安全专业人士的反馈,该基准研究报告显示,隐私问题远不止是合规性问题。
生成式人工智能技术下企业对隐私的担忧与日俱增
思科首席法务官 Dev Stahlkopf 表示:“生成式人工智能对企业来说是一门完全不同的科技,它带来了引人深思的新挑战。90%以上的受访者认为人工智能需要数据和风险管理的新技术,公司的治理需要更加严密周到,维护客户的信任取决于此。”
报告显示,企业最关注的问题包括对企业的法律和知识产权的威胁(69%),以及向公众或竞争对手泄露信息的风险(68%)。
对生成式人工智能的担忧
大多数企业都意识到了这些风险,并采取了限制措施:63%的企业对可输入数据的内容设置了限制,61%的企业对员工可以使用的生成式人工智能工具设置了限制,27%的企业表示暂时禁止使用生成式人工智能应用程序。尽管如此,许多用户还是在生成式人工智能中输入了可能存在风险的信息,包括员工信息(45%)或公司的非公开信息(48%)。
人工智能和透明度进展缓慢
如今,消费者对使用涉及其数据的人工智能感到担忧。91%的企业认识到,他们需要采取更多措施向客户保证,他们的数据在人工智能中仅用于有预期的合法目的。该数据与去年的水平相似,表明企业在该维度上没有取得太大进展。
在建立消费者信任方面,企业与个人的关注点各有侧重。消费者的优先级是获得明确的信息,清楚地了解其数据如何被使用,以及数据是否会出于营销目的而被售卖。企业方的优先级是遵守隐私保护法(25%)和避免数据泄露(23%)。这表明,企业可更多关注透明度的问题——尤其是在人工智能应用方面,因为消费者可能很难理解算法是如何做决策的。
隐私与信任:外部认证和法律的作用
企业认识到有必要让客户放心,了解他们的数据是如何被使用的。
思科副总裁兼首席隐私官Harvey Jang表示:“94%的受访者认为,如果他们不能充分保护数据,消费者就不会购买他们的产品。98%的受访者表示,外部隐私认证是影响消费者购买决策的重要因素,因此他们正在寻找企业值得信赖的确凿证据。这些数据是我们多年来在思科隐私研究中看到的最高值,再次证明了隐私保护已经与客户的信任度和忠实度密不可分。在人工智能时代情况更是如此,对隐私保护进行投资可以使企业更有道德、更负责任地应用人工智能。”
思科大中华区副总裁、安全事业部总经理卜宪录表示:“从研究报告数据上看,对于消费者关心的隐私和数据安全保护,企业还需要采取更多措施。思科在人工智能、网络安全领域有其独特优势,除了在产品和技术方面多年的投入,不断地创新,思科秉持‘负责任AI’的原则,坚持透明、公平和负责任的企业行为准则,在帮助企业提高生产力,促进业务创新的同时,充分做好隐私保护和数据安全保障措施,赢得消费者信任。”
尽管隐私保护规定可能会给企业增加更多成本和要求,但80%的受访者表示,隐私保护规定对企业产生了积极影响,只有6%的受访者表示影响是负面的。强有力的隐私保护规定增加了消费者的信心,愿意信任企业,对其分享数据。
此外,许多政府和企业正在制定数据本地化规定,以便将某些数据保留在该国家或地区内。虽然大多数企业(91%)认为,如果将数据存储在本国或本地区,其数据本质上会更安全,但86% 的企业也表示,与本地供应商相比,规模化运营的全球供应商能更好地保护其数据。
隐私保护:极具价值的投资
过去五年中,企业在隐私保护方面的支出增加了一倍多,收益呈上升趋势,保持强劲回报率。今年,95%的企业表示隐私保护的收益超过了成本,平均每个企业的隐私保护收益是其支出的1.6 倍。此外,80%的企业表示从隐私保护方面的投资中获得了显著的“忠实度和信任度”,而在隐私保护投资最成熟的企业中,这一比例甚至更高(92%)。
在隐私保护方面的投资对忠实度和信任度的影响
2023年,大型企业(拥有1万名以上员工的企业)的隐私保护支出比去年增加了8%到9%。然而,规模较小的企业在这一方面的投资则有所减少,例如,员工人数在 50-249之间的企业,其隐私保护方面的投资平均减少了四分之一。