GenAI将员工变成无意的内部威胁

根据Netskope的数据,企业与GenAI应用共享的数据量激增,一年内增长了30倍。 现在,平均每个企业每月与AI工具共享的数据超过7.7GB,而一年前仅为250MB,这一数字大幅增长。 这包括源代码、受监管数据、密码和密钥以及知识产权等敏感数据,从而极大地增加了发生昂贵的数据泄露事件、合规性违规和知识产权被盗的风险。

GenAI将员工变成无意的内部威胁

根据Netskope的数据,企业与GenAI应用共享的数据量激增,一年内增长了30倍。现在,平均每个企业每月与AI工具共享的数据超过7.7GB,而一年前仅为250MB,这一数字大幅增长。

这包括源代码、受监管数据、密码和密钥以及知识产权等敏感数据,从而极大地增加了发生昂贵的数据泄露事件、合规性违规和知识产权被盗的风险。75%的企业用户正在使用具有GenAI功能的应用程序,这给安全团队带来了一个必须解决的大问题:即无意的内部威胁。

GenAI应用带来了日益增长的网络安全风险

90%的企业有用户直接访问ChatGPT、Google Gemini和GitHub Copilot等GenAI应用。98%的企业有用户使用提供GenAI功能的应用,如Gladly、Insider、Lattice、LinkedIn和Moveworks等。

根据许多不同的衡量指标,GenAI在企业中的采用率正在上升。然而,从数据安全的角度来看,发送到GenAI应用的数据量最为重要:每一次发布或上传都是数据暴露的机会。

Netskope的CISO James Robinson表示:“尽管各企业都在努力实施公司管理的GenAI工具,但我们的研究表明,影子IT已经演变成影子AI,近四分之三的用户仍然通过个人账户访问GenAI应用。这一持续趋势,再加上所共享的数据,突显了需要先进的数据安全能力,以便安全和风险管理团队能够重新获得对企业内GenAI使用的治理、可见性和可接受使用的控制。”

企业对GenAI数据缺乏控制

许多企业无法全面甚至部分地了解在间接使用GenAI时,数据是如何被处理、存储和利用的。通常,它们会选择采用“先阻止再询问”的策略,即明确允许某些应用并阻止其他所有应用。然而,随着员工寻求这些工具带来的效率和生产力效益,安全负责人必须寻求一种安全赋能策略。

以DeepSeek为例,Netskope发现,在2025年1月发布后的几周内,91%的企业有用户试图访问DeepSeek AI。当时,大多数企业还没有为DeepSeek制定安全策略,这使它们面临未知的风险。此外,员工可能会在不知情的情况下向AI提供专有业务数据,将源代码、知识产权、受监管数据甚至密码输入到生成式AI应用中。

Netskope威胁实验室总监Ray Canzanese表示:“我们的最新数据显示,GenAI不再是一种小众技术,它无处不在。它正日益融入从专用应用到后端集成的方方面面。这种无处不在的特性带来了日益严峻的网络安全挑战,要求企业采取全面的风险管理方法,否则其敏感数据可能会被第三方获取,用于训练新的AI模型,从而造成更大范围的数据泄露。”

在过去的一年中,Netskope还观察到,运行本地GenAI基础设施的企业数量大幅增加,从不到1%增加到54%,这一趋势预计将持续下去。尽管这降低了云中的第三方应用造成数据泄露的风险,但转向本地基础设施带来了新的数据安全风险,包括供应链风险、数据泄露、不当的数据输出处理、prompt注入、越狱和meta prompt提取。因此,许多企业在已经使用的基于云的GenAI应用之上,又增加了本地托管的GenAI基础设施。

影子AI的兴起

虽然大多数企业都在使用GenAI,但只有一小部分但持续增长的用户正在积极使用GenAI应用。在过去的一年里,企业中使用GenAI应用的人数几乎翻了一番,每个企业中平均有4.9%的人在使用GenAI应用。

GenAI应用在企业中的采用遵循了新云服务的典型模式:单个用户使用个人账户访问应用。结果是,企业中使用GenAI应用的大多数都可以归类为影子IT,这是一个用于描述未经IT部门了解或批准即被使用的解决方案的术语。

“AI不仅正在重塑边界和平台安全,它还在改写规则,”Netskope的安全与情报运营副总裁Ari Giguere表示。

99%的企业都在执行政策以降低与GenAI应用相关的风险。这些政策包括阻止所有或大多数用户访问所有GenAI应用、控制哪些特定用户群体可以使用GenAI应用以及控制允许哪些数据进入GenAI应用。以下部分将详细阐述最受欢迎的政策。

相关资讯

2025年的十大网络安全预测

人工智能在2025年仍将是一个热门话题,但不要错过其他趋势,包括初始访问代理的增长、首席信息安全官(vCISO)的崛起、技术合理化等等。 每年这个时候,行业专家和分析师都会关注明年的网络安全趋势、预测和挑战。 专家预测,到2024年,生成式人工智能(GenAI)和大型语言模型将会增加,勒索软件攻击和第三方供应链挑战也将持续。

恶意行为者运用GenAI:尚未达到预期,但需警惕

网络威胁联盟 (CTA) 的最新报告得出结论,GenAI帮助降低了恶意行为者的入门门槛,并提高了他们的效率,即更快地创建令人信服的深度伪造内容、发起网络钓鱼攻击和投资诈骗。 不过,就目前而言,它并没有让攻击者变得“更聪明”,也没有彻底改变网络威胁。 恶意行为者如何使用GenAI该报告基于 CTA 成员可获得的数据和实证案例研究,解释了攻击者目前使用GenAI的几个方面:创建深度伪造视频和欺骗性图像、克隆特定声音的录音、编写高度逼真的电子邮件、信息和网站内容辅助创建恶意软件(但无法在没有额外人为输入和调整的情况下创建恶意软件)优化命令和控制操作(例如,用于管理僵尸网络)传播错误信息和虚假信息(例如,以推动网络阴谋论、影响选举活动)创建由AI控制的虚假社交媒体账户网络(机器人农场)分析人员发现,“虽然AI创新无疑具有强大功能,但到目前为止,它们只是逐步提升了对手的能力,并没有创造出全新的威胁。

2025红队报告:AI被夸大,并未颠覆网络安全威胁格局

据网络安全公司Picus Labs发布的《2025年红队报告》(Red Report 2025)显示,尽管人工智能(AI)在网络安全领域备受热炒,但截至目前,AI并未显著改变网络威胁格局,现实世界中的网络攻击仍主要依赖一组已知的战术、技术和程序(TTPs)。 这一发现与媒体对AI作为“网络犯罪终极武器”的过度宣传形成鲜明对比,提醒企业将注意力集中于实际存在的、实实在在的网络安全挑战上。 AI热潮的现实落差近年来,AI被视为网络犯罪的“秘密武器”,媒体报道频频提及其在网络攻击中的潜力。