首款生成式 AI 安全解决方案,微软 Copilot for Security 4 月 1 日上线

感谢微软去年 3 月宣布推出 Security Copilot 服务, 当时微软声称这是世界上第一个基于生成式 AI 的安全产品。现在,微软宣布更名后的“Copilot for Security”将于 4 月 1 日正式上线。据介绍,这款行业领先的产品是唯一一款生成式 AI 解决方案,可帮助安全和 IT 专业人员增强其技能、进行更多协作、查看更多内容并更快地做出响应。 在微软最近进行的一项研究中,经验丰富的安全分析师通过使用 Copilot ,在处理常见安全任务中速度提高了 22%,同时将准确性提高了 7%。 此外
感谢微软去年 3 月宣布推出 Security Copilot 服务, 当时微软声称这是世界上第一个基于生成式 AI 的安全产品。现在,微软宣布更名后的“Copilot for Security”将于 4 月 1 日正式上线。

据介绍,这款行业领先的产品是唯一一款生成式 AI 解决方案,可帮助安全和 IT 专业人员增强其技能、进行更多协作、查看更多内容并更快地做出响应。 

首款生成式 AI 安全解决方案,微软 Copilot for Security 4 月 1 日上线

在微软最近进行的一项研究中,经验丰富的安全分析师通过使用 Copilot ,在处理常见安全任务中速度提高了 22%,同时将准确性提高了 7%。 此外,有 97% 的有经验的安全分析师表示,他们希望下次再次使用 Copilot。 

IT之家附 Copilot for Security 产品能力:

事件汇总:利用生成式 AI 将复杂的安全警报快速提炼成简洁、可操作的摘要,从而缩短响应时间并简化决策,从而获取事件背景信息并改善整个组织的沟通。

影响分析:利用 AI 驱动的分析来评估安全事件的潜在影响,提供对受影响系统和数据的洞察,从而有效地确定响应工作的优先级。

脚本的逆向工程:无需手动对恶意软件进行逆向工程,使每个分析师都能了解攻击者执行的操作。分析复杂的命令行脚本,并将其翻译成自然语言,并清楚地说明操作。有效地提取脚本中找到的指示器并将其链接到环境中的相应实体。

引导式响应:接收事件响应的可操作分步指南,包括会审、调查、遏制和修正的指示。与建议操作相关的深层链接可以更快地做出响应。

此外,Copilot for Security 还带来以下功能:

自定义提示手册允许客户为常见的安全工作流、任务和方案创建和保存自己的一系列自然语言提示。

知识库集成(公共预览版)使 Copilot for Security 能够集成业务上下文,以便你可以搜索和查询专有内容。    

使用情况报告提供有关团队如何使用 Copilot 的见解,以便您可以发现更多优化机会。 

扩展的语言本地化现在包括 8 种语言的提示和响应(包含简体中文),产品界面现在提供 25 种语言版本,以提供改进的用户体验。

相关资讯

Nature子刊 | 通过视频去噪扩散模型进行非线性机械超材料逆向设计

编辑 | 绿萝复杂材料特性的逆向设计,在解决软机器人、生物医学植入物和织工程等方面具有巨大潜力。尽管机器学习模型提供了此类逆映射,但它们通常仅限于线性目标属性。近日,苏黎世联邦理工学院(ETH Zurich)的研究人员为了定制非线性响应,证明了在周期性随机 cellular 结构的全场数据上训练的视频扩散生成模型,可以成功地预测和调整它们在大应变状态下的非线性变形和应力响应,包括屈曲和接触。成功的关键是打破直接学习从属性到设计的映射的常见策略,并将框架扩展为内在估计预期变形路径和全场内应力分布,这与有限元模拟非常一

私有数据、删掉的内容可以永久访问,GitHub官方:故意设计的

最近,一个消息震惊开源社区:在 GitHub 上删掉的内容、私有存储库的数据都是可以永久访问的,而且这是官方故意设计的。开源安全软件公司 Truffle Security 在一篇博客中详细描述了这个问题。Truffle Security 引入了一个新术语:CFOR(Cross Fork Object Reference):当一个存储库 fork 可以访问另一个 fork 中的敏感数据(包括来自私有和已删除 fork 的数据)时,就会出现 CFOR 漏洞。与不安全的直接对象引用类似,在 CFOR 中,用户提供提交(c

道阻且长,行则将至 | 安远AI x 机器之心系列讲座圆满结束

历时一个月,安远AI与机器之心联合举办的「迈向安全、可靠、可控的人工智能」六场系列讲座圆满结束,我们邀请了全球顶尖人工智能机构专家分享强化学习、预训练大模型、通用人工智能等内容。这六位专家分享了他们的真知灼见,并对人工智能与人类的未来展现出忧虑与希望:第1期:「寻找AGI的安全路径 」不正确的微调或目标的错误泛化可能会导致AGI追求一个不正确的目标。如果足够智能,这种未对齐(unaligned)的AGI将导致灾难性的后果。 —DeepMind研究科学家Rohin Shah第2期:「人类与AI的共生演化 」AI技术的