研究发现黑客可轻松操控 AI 机器人,将其变成致命武器

宾夕法尼亚大学的研究人员发现,一系列人工智能增强型机器人系统存在严重的漏洞,容易受到黑客攻击和控制。

宾夕法尼亚大学的研究人员发现,一系列人工智能增强型机器人系统存在严重的漏洞,容易受到黑客攻击和控制。

研究发现黑客可轻松操控 AI 机器人,将其变成致命武器

IEEE Spectrum 的一份报告引用了令人震惊的例子,例如被黑客攻击的机器狗将火焰喷射器对准主人、引导炸弹到最具破坏性的地点,以及自动驾驶汽车故意撞向行人。

据AI在线了解,宾夕法尼亚工程学院的研究人员将他们开发的基于 LLM 的机器人攻击技术称为 RoboPAIR。来自三个不同机器人供应商的设备都受到了 RoboPAIR 黑客攻击:英伟达支持的海豚 LLM、Clearpath Robotics Jackal UGV 和 Unitree Robotics Go2 四足机器人。研究人员表示,RoboPAIR 在黑客攻击这些设备方面取得了 100% 的成功率。

研究发现黑客可轻松操控 AI 机器人,将其变成致命武器

研究发现黑客可轻松操控 AI 机器人,将其变成致命武器

宾夕法尼亚工程学院电气系统工程、计算机与信息科学、机械工程与应用力学系运输学教授乔治・帕帕斯(George Pappas)警告称:“我们的研究表明,目前,大型语言模型与物理世界集成时还不够安全。”

其他研究人员指出,黑客攻击人工智能控制的机器人“惊人地容易”。他们解释说,RoboPAIR 通过配备目标机器人的应用程序接口(API)来工作,这样攻击者就可以以一种设备目标能够作为代码执行的方式来格式化提示词(prompts)。

研究论文得出结论,迫切需要实施防御措施来物理限制 LLM 控制的机器人。

相关资讯

微软将举办大型线下黑客大会,400 万美元悬赏云计算与 AI 软件漏洞

微软宣布将举办一场名为“零日探索”(Zero Day Quest)的线下黑客大会,旨在鼓励研究人员发现影响云计算和人工智能工作负载的软件中的高危安全漏洞。

腾讯朱雀实验室推出代码防护技术Deep Puzzling,让代码更难被猜透

随着AI技术与网络安全结合得越来越紧密,基于AI技术的网络攻防手段也在日益更替。11月26日,全球顶级的信息安全峰会HITB Cyberweek 2021于近日举办,腾讯朱雀实验室专家研究员Jifeng Zhu和研究员Keyun Luo受邀参加,并进行了题为《Deep Puzzling: Binary Code Intention Hiding based on AI Uninterpretability》(《基于AI不可解释性的二进制代码意图隐藏》)的议题分享。会上,腾讯朱雀实验室展示了如何利用AI模型的特性,实

安全公司警告黑客正瞄准各大 AI 语言模型平台用户账号,转卖 API 余额 / 获取隐私信息

安全公司 Sysdig 近日发布报告,声称有大量黑客瞄准各大 LLM 大语言模型网络平台发动“LLM 劫持(LLMjacking)”攻击,黑客通过一系列方式盗取用户账号密码,将模型 API 转卖给第三方,还从用户的对话记录中选取隐私信息用于勒索或公开贩售。Sysdig 表示,黑客们似乎“偏好”Anthropic Claude v2 / v3 平台,目前他们检测到黑客主要利用撞库及 PHP 框架 Laravel 的凭据漏洞(CVE-2021-3129)进行攻击,更多偏向企业用户,不知情的受害者可能每天需要替黑客买单超