2025年的十大网络安全预测

人工智能在2025年仍将是一个热门话题,但不要错过其他趋势,包括初始访问代理的增长、首席信息安全官(vCISO)的崛起、技术合理化等等。 每年这个时候,行业专家和分析师都会关注明年的网络安全趋势、预测和挑战。 专家预测,到2024年,生成式人工智能(GenAI)和大型语言模型将会增加,勒索软件攻击和第三方供应链挑战也将持续。

人工智能在2025年仍将是一个热门话题,但不要错过其他趋势,包括初始访问代理的增长、首席信息安全官(vCISO)的崛起、技术合理化等等。

2025年的十大网络安全预测

每年这个时候,行业专家和分析师都会关注明年的网络安全趋势、预测和挑战。

专家预测,到2024年,生成式人工智能(GenAI)和大型语言模型将会增加,勒索软件攻击和第三方供应链挑战也将持续。这些趋势是真实的,因为威胁参与者使用GenAI创建了更有说服力的社会工程攻击,数据存储供应商Snowflake的客户遭受了破坏,Change Healthcare遭受了破坏性的勒索软件攻击。

以下了解网络安全行业专家对2025年的预测。

1.首席信息安全官退出人工智能应用

人工智能在2024年风靡一时,但不要指望2025年人工智能的采用率会如此之高——至少安全团队不会这么做。事实上,Forrester Research公司预计,在未来一年,GenAI在安全用例中的应用将减少10%。

该分析公司的客户群指出,采用该技术的一个障碍是预算不足。Forrester公司分析师Cody Scott表示,首席信息安全官不重视采用率的另一个原因是,客户没有看到安全带来的好处,对目前的人工智能体验感到沮丧。

Scott说,GenAI和AI模型因其自动化安全领域机械生产力任务的能力而受到吹捧,例如报告和分析,但它们还没有提供太多的事件响应。

2.在GenAI和人工智能模型周围设置护栏的压力

Informa TechTarget企业战略集团网络安全实践总监Melinda Marks表示,整个企业对人工智能的持续采用将导致行业推动制定有关人工智能安全使用的法规。

Marks说:“安全团队希望积极主动,领先于人工智能的使用,因为像任何创新技术一样,人工智能很容易失控。”

保护使用GenAI开发的代码对于保护应用程序和敏感数据至关重要。马克斯补充说,安全团队知道这一点,并希望确保他们尽早设置护栏。

3.为初始访问代理的兴起做好准备

德勤网络威胁情报团队表示,首次访问经纪人的数量有所增加,预计这一趋势将在2025年持续下去。

内部攻击者是威胁行为者或威胁组织,他们将进入受害组织网络的权限出售给恶意的第三方客户。iab专门负责闯入网络,而不是自己进行最终攻击——勒索软件、数据泄露或其他攻击。购买进入组织的访问权限降低了威胁行为者的进入门槛,因为它使他们无需技术知识就可以进行攻击。

德勤(Deloitte)美国网络情报主管Clare Mohr表示,仅在2024年10月,就有近400起IABs在地下论坛上列出了非法访问公司的情况。预计未来会有更多的攻击活动使用IAB产品。

4.对托管安全服务提供商(msp)的依赖增加

Informa TechTarget旗下Omdia的网络安全研究总监Maxine Holt表示,到2025年,企业将加大对托管安全服务提供商的投资,以提高安全弹性。

Holt说:“企业没有内部资源、技能或专业知识。她希望托管安全服务提供商的能够特别帮助管理非人类身份,包括服务器、移动设备、微服务和物联网设备等。

非人类身份的增长扩大了身份格局。Omdia发现,目前非人类身份的数量是人类身份的50比1。Holt说:“对于大多数组织来说,不可能在内部完成所有事情。

5.是时候进行技术合理化了

根据帕洛阿尔托网络公司(Palo Alto Networks)的数据,安全团队正面临着工具过载的问题大多数团队平均拥有超过30个工具,这可能是一种阻碍,而不是帮助。

管理服务商Optiv公司的首席信息安全官Max Shier表示,他预计到2025年,首席信息安全官将进行安全技术合理化,即评估组织的安全堆栈,以实现价值最大化,消除冗余和低效率。技术合理化可以帮助组织解决工具蔓延和削减成本。

首先,Shier建议公司确定他们的用例,并检查产品路线图,作为提案流程请求的一部分,无论是作为新工具还是签署续签许可协议。

组织需要回答的几个问题包括:

  • 这些工具或平台是否以与组织相关的方式协助数据安全?
  • 组织需要的功能是在不久的将来出现在路线图上,还是还很遥远?

  • 当前的安全堆栈有多成熟,这些工具会巩固它吗?

Shier补充说,不要指望会有快速的转变。根据许可协议,可能需要三到五年的时间才能看到工具数量的差异。

6.网络攻击者在攻击前表现得更有耐心

网络攻击者并不总是为了快速攻击。有些攻击是酝酿已久的,比如2024年发现的Volt Typhoon网络攻击。这个国家威胁组织至少在5年的时间里一直可以持续访问关键的基础设施目标,而没有采取任何行动。

网络安全供应商Titania的市场战略和发展高级副总裁Phil Lewis预测,2025年及以后,这些先进的持续威胁将会更多。攻击者将攻击目标,并在很长一段时间内保持休眠状态,不被发现,直到攻击时机成熟。

这些复杂的攻击很难检测和缓解。Lewis说,组织应该把重点放在网络弹性上,而不是预防上,因为历史表明,攻击者不会一直被阻止。他还建议组织实施微分段和宏分段,以使对手更难以进行横向移动和数据泄露。

7.开源软件攻击和立法增多

开源软件攻击的数量迅速增长,自从2023年11月以来,供应链管理供应商Sonatype跟踪了超过50万个新的恶意软件包。

开源安全基金会(OpenSSF)是一个由软件和安全工程师组成的社区,预测2025年开源软件攻击将继续上升。

OpenSSF的首席安全架构师Christopher Robinson表示,部分挑战在于开发人员并不总是接受过安全方面的培训。他补充说,许多组织没有对他们的申请进行适当的审查。相反,他们只是“盲目地接受组件”,这可能会使他们自己和他们的客户受到漏洞的影响。

为了缓解问题,Robinson建议要求供应商提供软件材料清单,以了解其软件的组件,并进行模糊测试、源代码分析和漏洞扫描,以评估软件安全性。他补充说,公司和供应商也应该报告和分享潜在的安全问题,让其他人和开源社区了解情况。

随着开源供应链攻击数量的增加,预计相关法规也会随之出台。Robinson表示,OpenSSF已经在与欧盟委员会合作制定开源法规,并听说日本和印度政府也在考虑类似的立法。

8.缺乏跨云的可见性会损害组织

云计算在当今的组织中是司空见惯的。MSPDirectDefense首席技术官兼总裁JimBroome表示:“我敢说,很多客户已经迁移到云计算,只是为了从资本支出过渡到运营支出,以更好地负担他们的基础设施。”

向云的迁移给企业带来了可见性方面的挑战,这些挑战可能会在2025年对企业造成伤害,尤其是在多云环境中。Broome说,“不幸的是,99%的情况下,组织没有正确地将数据从本地迁移到云端,尤其是在疫情期间。”当新冠疫情袭来时,员工被允许访问和使用敏感数据,而他们的组织却没有太多的可见性和监督,这个问题从未得到解决。

组织应该将云安全态势管理纳入预算,以确保跨多个云的敏感数据的安全。他补充说,利益相关者还应该检查云中的数据的安全性,并考虑采用现有工具或平台或新工具的可见性和响应能力。

9.虚拟首席信息安全官和CSO顾问人数增加

2025年可能是首席信息安全官选择虚拟首席信息安全官(vCISO)或首席信息安全官顾问角色而不是全职内部角色的一年。

“我们一直听说首席信息安全官是‘首席替罪羊官’,对吧?”风险管理供应商BlackKite的高级副总裁兼网络风险策略师Jeffrey Wheatman说。例如,SolarWinds的首席信息安全官Tim Brown在最近美国证券交易委员会对该供应商提起的诉讼中被点名。

他说,“他们觉得自己没有得到支持,或者在违约后要自己承担后果。突然之间,他们不再想要全职合同了。”

Wheatman说,他的许多首席信息安全官和前首席信息安全官朋友最近都开始考虑担任首席信息安全官和首席信息安全官顾问。

对于没有资源聘请全职首席信息安全官的组织来说,首席信息安全官(vCISO)是一个受欢迎的选择。有些组织可能只需要按需提供帮助,比如在年初提供年度战略,每季度根据需要提供帮助——这是惠特曼的一位首席战略官顾问朋友目前正在做的事情。

10.人工智能代理成为妥协的目标

人工智能代理是一种支持人工智能的软件,可以执行自主决策和行动。作为先进的聊天机器人,这些代理可以帮助客户获得他们之前向客户服务或服务台员工提出的问题的答案,或者他们可以管理工作流程并进行研究以创建假设和分析。

实时风险检测供应商Dataminr的产品管理副总裁Shimon Modi表示,随着越来越多的组织实施人工智能代理,预计威胁行为者也会将其作为目标。

事实上,一些攻击者已经在使用人工智能代理来攻击部署它们的公司,通常是以快速注入攻击的形式。例如,一个人工智能代理被骗为一辆雪佛兰卡车报价低得离谱,另一个被骗转移了4.7万美元的加密货币。2025年,威胁行为者可能会欺骗人工智能代理泄露敏感数据或重置用户密码。

为了保护人工智能代理免受此类攻击,莫迪表示,组织应该应用传统的安全和治理原则,并调整现有的剧本,以纳入人工智能安全。例如,组织可以对人工智能代理应用漏洞评估和测试,以及使用数据分类来控制人工智能代理可以访问哪些数据,从而控制它们可以执行哪些请求。

相关资讯

恶意行为者运用GenAI:尚未达到预期,但需警惕

网络威胁联盟 (CTA) 的最新报告得出结论,GenAI帮助降低了恶意行为者的入门门槛,并提高了他们的效率,即更快地创建令人信服的深度伪造内容、发起网络钓鱼攻击和投资诈骗。 不过,就目前而言,它并没有让攻击者变得“更聪明”,也没有彻底改变网络威胁。 恶意行为者如何使用GenAI该报告基于 CTA 成员可获得的数据和实证案例研究,解释了攻击者目前使用GenAI的几个方面:创建深度伪造视频和欺骗性图像、克隆特定声音的录音、编写高度逼真的电子邮件、信息和网站内容辅助创建恶意软件(但无法在没有额外人为输入和调整的情况下创建恶意软件)优化命令和控制操作(例如,用于管理僵尸网络)传播错误信息和虚假信息(例如,以推动网络阴谋论、影响选举活动)创建由AI控制的虚假社交媒体账户网络(机器人农场)分析人员发现,“虽然AI创新无疑具有强大功能,但到目前为止,它们只是逐步提升了对手的能力,并没有创造出全新的威胁。

新的 AI 安全在 2025 年正对 CISO 及其团队构成挑战

安全团队总是必须适应变化,但2025年将出现的新发展可能会使变化特别具有挑战性。 AI 创新步伐的加快、日益复杂的网络威胁和新的监管政策将要求首席信息安全官 (CISO) 驾驭更复杂的环境。 供应商正在迅速将AI 功能添加到现有产品中,其使用的基础大型语言模型 (LLM) 在增强产品能力的同时也暴露了新的攻击面给攻击者,企业CISO 需要了解他们面临这些威胁的严重程度,以及如何缓解这些威胁。

AI红队:构建安全AI只是梦想

负责微软100多个GenAI产品红队测试的团队得出结论,构建安全可靠的AI系统的工作永远不会完成。 本周发表的一篇论文中,包括微软Azure首席技术官Mark Russinovich在内的作者们描述了团队的一些工作,并提出了八项建议,旨在“使红队测试工作与现实世界的风险相一致”。 论文的主要作者、微软AI红队(AIRT)研究员Blake Bullwinkel和他的25位合著者在论文中写道:“随着GenAI系统在越来越多领域的应用,AI红队测试已成为评估这些技术安全性和可靠性的核心实践。