微软 Copilot AI 被指可被黑客操纵,轻松窃取企业机密

据 Futurism 报道,安全研究人员近日揭示微软内置于 Windows 系统的 Copilot AI 可被轻松操控泄露企业敏感数据,甚至变身强大的钓鱼攻击工具。AI在线注意到,安全公司 Zenity 联合创始人兼 CTO Michael Bargury 在拉斯维加斯黑帽安全大会上披露了这一惊人发现,他表示,“我可以利用它获取你的所有联系人信息,并替你发送数百封电子邮件。”他指出,传统黑客需要花费数天时间精心制作钓鱼邮件,而利用 Copilot,几分钟内即可生成大量具有欺骗性的邮件。研究人员通过演示展示了攻击者无

据 Futurism 报道,安全研究人员近日揭示微软内置于 Windows 系统的 Copilot AI 可被轻松操控泄露企业敏感数据,甚至变身强大的钓鱼攻击工具。

微软 Copilot AI 被指可被黑客操纵,轻松窃取企业机密

AI在线注意到,安全公司 Zenity 联合创始人兼 CTO Michael Bargury 在拉斯维加斯黑帽安全大会上披露了这一惊人发现,他表示,“我可以利用它获取你的所有联系人信息,并替你发送数百封电子邮件。”他指出,传统黑客需要花费数天时间精心制作钓鱼邮件,而利用 Copilot,几分钟内即可生成大量具有欺骗性的邮件。

研究人员通过演示展示了攻击者无需获取企业账户即可诱骗 Copilot 修改银行转账收款人信息,只需发送一封恶意邮件,甚至无需目标员工打开即可实施攻击。

另一个演示视频揭露了黑客在获取员工账户后可利用 Copilot 造成严重破坏。通过简单的提问,Bargury 成功获取了敏感数据,他可以利用这些数据来冒充员工发起网络钓鱼攻击。Bargury 首先获取同事 Jane 的邮箱地址,了解与 Jane 的最近一次对话内容,并诱导 Copilot 泄露该对话中的抄送人员邮箱。随后,他指示 Copilot 以被攻击员工的风格撰写一封发送给 Jane 的邮件,并提取两人最近一次邮件的准确主题。短短几分钟内,他就创建了一封具有高度可信度的钓鱼邮件,可向网络中的任何用户发送恶意附件,而这一切都得益于 Copilot 的积极配合。

微软 Copilot AI,尤其是 Copilot Studio,允许企业定制聊天机器人以满足特定需求。然而,这也意味着 AI 需要访问企业数据,从而引发安全隐患。大量聊天机器人默认情况下可被在线搜索到,成为黑客的攻击目标。

攻击者还可以通过间接提示注入绕过 Copilot 的防护措施。简单来说,可以通过外部来源的恶意数据,例如让聊天机器人访问包含提示的网站,来使其执行禁止的操作。Bargury 强调:“这里存在一个根本问题。当给 AI 提供数据访问权限时,这些数据就成为了提示注入的攻击面。某种程度上来说,如果一个机器人有用,那么它就是脆弱的;如果它不脆弱,它就没有用。”

相关资讯

谷歌安卓版 Gmail 将迎新特性:整合 Gemini,帮用户总结邮件内容

消息源 @AssembleDebug 近日发布推文,挖掘安卓版 Gmail v2024.03.31.621006929 版本更新,发现谷歌正在测试“Summarize this email”功能,帮用户总结当前邮件内容。根据曝光的截图,Gmail 新版在邮件标题下方会出现“Summarize this email”按钮,只是现阶段该功能没有生效,但从名称判断可以确认是总结当前邮件内容。网友推测在点击该按钮之后,将在屏幕底部弹出一个窗口,以要点形式显示电子邮件的摘要。这与网页上的操作方式有些类似,只是网页版会跳出侧边

微软将终止中国个人 Azure OpenAI 服务,仅企业客户可用

感谢据第一财经 10 月 17 日报道,多位开发者收到微软邮件称,由于当地监管要求,微软 Azure OpenAI 服务将于 10 月 21 日关停,未来在中国大陆只有企业客户才能订阅 Azure 的 OpenAI 服务。多数开发者是 17 日早上收到了邮件。有开发者表示,“这是个人身份在国内能合规使用 OpenAI 的唯一窗口,现在也关闭了。

GitHub Copilot 推出视觉功能:图片可秒变代码

GitHub 宣布了其 AI 编程助手 Copilot 的一系列重大更新,此次更新中最引人注目的功能之一是 Copilot 的“Vision”功能。该功能允许用户在聊天中上传截图、照片或图表,Copilot 将基于这些图像生成相应的界面、代码以及替代文本(alt text),从而将用户的视觉想法转化为实际的编程成果。