AI抢不走的工作,微软力挺红队测试仍需人类“掌舵”

随着AI的快速发展,安全专家担心人工智能会取代他们的工作,但微软的研究人员坚持认为,有效的红队测试仍然依赖于人类的专业知识、文化意识和情商——这些品质是机器无法复制的。 微软的AI红队严格测试了100多款生成式AI产品,并确定人类的创造力在发现漏洞,以及预测黑客如何利用这些系统方面仍然至关重要。 根据雷德蒙德AI红队发布的白皮书,其开源的PyRIT(Python风险识别工具包)等工具可以简化模拟黑客攻击,但最终,在处理复杂风险方面,人类的参与仍然不可替代。

随着AI的快速发展,安全专家担心人工智能会取代他们的工作,但微软的研究人员坚持认为,有效的红队测试仍然依赖于人类的专业知识、文化意识和情商——这些品质是机器无法复制的。

微软的AI红队严格测试了100多款生成式AI产品,并确定人类的创造力在发现漏洞,以及预测黑客如何利用这些系统方面仍然至关重要。

AI抢不走的工作,微软力挺红队测试仍需人类“掌舵”

根据雷德蒙德AI红队发布的白皮书,其开源的PyRIT(Python风险识别工具包)等工具可以简化模拟黑客攻击,但最终,在处理复杂风险方面,人类的参与仍然不可替代。

在网络安全医学、化学或生物风险等专业领域,微软坚持认为,人类驱动的专业知识是必不可少的,才能正确、精确地评估人工智能的响应,这远远超出了语言模型的能力。

在网络安全医学、化学或生物风险等专业领域,微软坚持认为,想要精确评估AI的响应,人类专家的专业知识必不可少,而这远远超出了语言模型的能力范围。

微软表示:“在多次操作中,我们依赖‘人类’来评估我们自己或使用大型语言模型(LLMs)无法评估的内容风险”,并强调“AI红队意识到这些局限性非常重要”。

公司研究团队还强调了所谓的“文化能力”,即红队必须考虑语言和文化差异,以识别可能被主要基于英语数据集训练的AI模型忽视的安全风险。

同时研究团队指出:“AI红队中的人类元素在回答需要情商的AI安全问题时最为明显。”例如“这个模型响应在不同情境下会如何被解读?”以及“这些输出是否让我感到不适?”等问题只有人类操作员才能解析。

微软补充表示:“最终,只有人类操作员才能评估用户在实际环境中与AI系统进行的全部互动。”

该论文还包括一个案例研究,在这个案例中,微软红队评估了聊天机器人对陷入困境用户的回应,以此来调查“心理社会危害”。并警告说,红队成员可能会接触到大量“令人不安和困扰的AI生成的内容”。

微软表示:“这凸显了很重要的一点,AI红队要拥有能让操作员在需要时脱离工作的流程,还要有支持他们心理健康的资源。”

研究人员警告称,生成式AI模型在现代应用中的集成引入了新的攻击向量,其中一个案例是,视频处理AI应用中的一个过时的FFmpeg组件引入了服务器端请求伪造(SSRF)漏洞,允许恶意黑客提升系统权限。

研究团队表示:“AI模型通过引入新的漏洞扩大了攻击面。”并指出,提示注入攻击利用了AI模型通常难以区分系统级指令和用户数据的事实。

参考来源:https://www.securityweek.com/ai-wont-take-this-job-microsoft-says-human-ingenuity-crucial-to-red-teaming/

相关资讯

安全公司警告黑客正瞄准各大 AI 语言模型平台用户账号,转卖 API 余额 / 获取隐私信息

安全公司 Sysdig 近日发布报告,声称有大量黑客瞄准各大 LLM 大语言模型网络平台发动“LLM 劫持(LLMjacking)”攻击,黑客通过一系列方式盗取用户账号密码,将模型 API 转卖给第三方,还从用户的对话记录中选取隐私信息用于勒索或公开贩售。Sysdig 表示,黑客们似乎“偏好”Anthropic Claude v2 / v3 平台,目前他们检测到黑客主要利用撞库及 PHP 框架 Laravel 的凭据漏洞(CVE-2021-3129)进行攻击,更多偏向企业用户,不知情的受害者可能每天需要替黑客买单超

微软将举办大型线下黑客大会,400 万美元悬赏云计算与 AI 软件漏洞

微软宣布将举办一场名为“零日探索”(Zero Day Quest)的线下黑客大会,旨在鼓励研究人员发现影响云计算和人工智能工作负载的软件中的高危安全漏洞。

研究发现黑客可轻松操控 AI 机器人,将其变成致命武器

宾夕法尼亚大学的研究人员发现,一系列人工智能增强型机器人系统存在严重的漏洞,容易受到黑客攻击和控制。