根据Netskope的数据,企业与GenAI应用共享的数据量激增,一年内增长了30倍。现在,平均每个企业每月与AI工具共享的数据超过7.7GB,而一年前仅为250MB,这一数字大幅增长。
这包括源代码、受监管数据、密码和密钥以及知识产权等敏感数据,从而极大地增加了发生昂贵的数据泄露事件、合规性违规和知识产权被盗的风险。75%的企业用户正在使用具有GenAI功能的应用程序,这给安全团队带来了一个必须解决的大问题:即无意的内部威胁。
GenAI应用带来了日益增长的网络安全风险
90%的企业有用户直接访问ChatGPT、Google Gemini和GitHub Copilot等GenAI应用。98%的企业有用户使用提供GenAI功能的应用,如Gladly、Insider、Lattice、LinkedIn和Moveworks等。
根据许多不同的衡量指标,GenAI在企业中的采用率正在上升。然而,从数据安全的角度来看,发送到GenAI应用的数据量最为重要:每一次发布或上传都是数据暴露的机会。
Netskope的CISO James Robinson表示:“尽管各企业都在努力实施公司管理的GenAI工具,但我们的研究表明,影子IT已经演变成影子AI,近四分之三的用户仍然通过个人账户访问GenAI应用。这一持续趋势,再加上所共享的数据,突显了需要先进的数据安全能力,以便安全和风险管理团队能够重新获得对企业内GenAI使用的治理、可见性和可接受使用的控制。”
企业对GenAI数据缺乏控制
许多企业无法全面甚至部分地了解在间接使用GenAI时,数据是如何被处理、存储和利用的。通常,它们会选择采用“先阻止再询问”的策略,即明确允许某些应用并阻止其他所有应用。然而,随着员工寻求这些工具带来的效率和生产力效益,安全负责人必须寻求一种安全赋能策略。
以DeepSeek为例,Netskope发现,在2025年1月发布后的几周内,91%的企业有用户试图访问DeepSeek AI。当时,大多数企业还没有为DeepSeek制定安全策略,这使它们面临未知的风险。此外,员工可能会在不知情的情况下向AI提供专有业务数据,将源代码、知识产权、受监管数据甚至密码输入到生成式AI应用中。
Netskope威胁实验室总监Ray Canzanese表示:“我们的最新数据显示,GenAI不再是一种小众技术,它无处不在。它正日益融入从专用应用到后端集成的方方面面。这种无处不在的特性带来了日益严峻的网络安全挑战,要求企业采取全面的风险管理方法,否则其敏感数据可能会被第三方获取,用于训练新的AI模型,从而造成更大范围的数据泄露。”
在过去的一年中,Netskope还观察到,运行本地GenAI基础设施的企业数量大幅增加,从不到1%增加到54%,这一趋势预计将持续下去。尽管这降低了云中的第三方应用造成数据泄露的风险,但转向本地基础设施带来了新的数据安全风险,包括供应链风险、数据泄露、不当的数据输出处理、prompt注入、越狱和meta prompt提取。因此,许多企业在已经使用的基于云的GenAI应用之上,又增加了本地托管的GenAI基础设施。
影子AI的兴起
虽然大多数企业都在使用GenAI,但只有一小部分但持续增长的用户正在积极使用GenAI应用。在过去的一年里,企业中使用GenAI应用的人数几乎翻了一番,每个企业中平均有4.9%的人在使用GenAI应用。
GenAI应用在企业中的采用遵循了新云服务的典型模式:单个用户使用个人账户访问应用。结果是,企业中使用GenAI应用的大多数都可以归类为影子IT,这是一个用于描述未经IT部门了解或批准即被使用的解决方案的术语。
“AI不仅正在重塑边界和平台安全,它还在改写规则,”Netskope的安全与情报运营副总裁Ari Giguere表示。
99%的企业都在执行政策以降低与GenAI应用相关的风险。这些政策包括阻止所有或大多数用户访问所有GenAI应用、控制哪些特定用户群体可以使用GenAI应用以及控制允许哪些数据进入GenAI应用。以下部分将详细阐述最受欢迎的政策。