安全公司警告黑客正瞄准各大 AI 语言模型平台用户账号,转卖 API 余额 / 获取隐私信息

安全公司 Sysdig 近日发布报告,声称有大量黑客瞄准各大 LLM 大语言模型网络平台发动“LLM 劫持(LLMjacking)”攻击,黑客通过一系列方式盗取用户账号密码,将模型 API 转卖给第三方,还从用户的对话记录中选取隐私信息用于勒索或公开贩售。Sysdig 表示,黑客们似乎“偏好”Anthropic Claude v2 / v3 平台,目前他们检测到黑客主要利用撞库及 PHP 框架 Laravel 的凭据漏洞(CVE-2021-3129)进行攻击,更多偏向企业用户,不知情的受害者可能每天需要替黑客买单超

安全公司 Sysdig 近日发布报告,声称有大量黑客瞄准各大 LLM 大语言模型网络平台发动“LLM 劫持(LLMjacking)”攻击,黑客通过一系列方式盗取用户账号密码,将模型 API 转卖给第三方,还从用户的对话记录中选取隐私信息用于勒索或公开贩售。

安全公司警告黑客正瞄准各大 AI 语言模型平台用户账号,转卖 API 余额 / 获取隐私信息

Sysdig 表示,黑客们似乎“偏好”Anthropic Claude v2 / v3 平台,目前他们检测到黑客主要利用撞库及 PHP 框架 Laravel 的凭据漏洞(CVE-2021-3129)进行攻击,更多偏向企业用户,不知情的受害者可能每天需要替黑客买单超过 4.6 万美元(IT之家备注:当前约 33.3 万元人民币)的 API 使用费。

安全公司警告黑客正瞄准各大 AI 语言模型平台用户账号,转卖 API 余额 / 获取隐私信息

此外,先前也有安全公司发现 Hugging Face 平台存在 API 凭据漏洞,允许黑客获取微软 / 谷歌 / Meta 的令牌,从而控制多家知名公司的模型库,目前 Hugging Face 已经修复相关漏洞。

相关阅读:

《AI 平台 Hugging Face 现 API 令牌漏洞,黑客可获取微软、谷歌等模型库权限》

相关资讯

AI抢不走的工作,微软力挺红队测试仍需人类“掌舵”

随着AI的快速发展,安全专家担心人工智能会取代他们的工作,但微软的研究人员坚持认为,有效的红队测试仍然依赖于人类的专业知识、文化意识和情商——这些品质是机器无法复制的。 微软的AI红队严格测试了100多款生成式AI产品,并确定人类的创造力在发现漏洞,以及预测黑客如何利用这些系统方面仍然至关重要。 根据雷德蒙德AI红队发布的白皮书,其开源的PyRIT(Python风险识别工具包)等工具可以简化模拟黑客攻击,但最终,在处理复杂风险方面,人类的参与仍然不可替代。

arXiv联手Hugging Face,论文链接到开源Demos一步到位

arXiv 作为超大规模的预印本网站,从诞生之初就造福了无数科研工作者。而它存在的意义,远不止让大家免费看论文这么简单。近日,Hugging Face 宣布与 arXiv 合作开发了一项新功能,即 Hugging Face Spaces 通过 Demos 选项卡与 arXivLabs 集成,该选项卡包含指向社区或作者自己创建的 Demos 的链接。用户只需将鼠标点到 Demos 选项卡,就可以查看源代码并试用。

世界最大开源 AI 社区 Hugging Face 涉足开源机器人领域,前特斯拉科学家领衔

据外媒 VentureBeat 报道,AI 创企 Hugging Face 设立开源机器人项目,前特斯拉科学家 Remi Cadene 领衔。Remi Cadene 的 X 平台动态显示,这位前特斯拉人形机器人 Optimus 团队成员加入 Hugging Face 并启动了一个开源机器人项目,招募愿在巴黎建造“真正的机器人”的工程师。参考IT之家以往报道,Hugging Face 目前主营业务均为软件形态,包括开源 AI 模型库和 AI 助手 Hugging Chat Assistants。此次组建开源机器人团队