安全公司披露 PyPI 虚假 GPT / Claude AI 辅助软件包工具,实为木马勒索软件

安全公司卡巴斯基发布通报,声称他们在 PyPI 中发现了两个恶意软件包,该工具包伪装成 GPT 和 Claude AI 平台辅助工具,实际上是木马勒索软件。

安全公司卡巴斯基发布通报,声称他们在 PyPI 中发现了两个恶意软件包,该工具包伪装成 GPT 和 Claude AI 平台辅助工具,实际上是木马勒索软件

AI在线获悉,这两款恶意软件包分别名为“gptplus”和“claudeai-eng”。其中“gptplus”宣称可以通过 OpenAI 的 API 访问 GPT-4 Turbo 模型,而“claudeai-eng”声称能访问 Anthropic Claude AI 的 API,但实际均为虚假宣传。

安全公司披露 PyPI 虚假 GPT / Claude AI 辅助软件包工具,实为木马勒索软件

▲ 图源卡巴斯基

通过解析软件包中的__init__.py 文件,卡巴斯基研究人员发现,这些软件包在受害者设备上运行后便会从 GitHub 代码库下载一个名为 JavaUpdater.jar 的文件,最终解压并运行 JarkaStealer 木马,该木马能够窃取受害者浏览器数据文件、账号令牌等隐私内容。

卡巴斯基同时表示,相关这些恶意软件包在 PyPI 上架已有一年多时间,期间下载量已突破 1700 次,卡巴斯基呼吁开发者在使用第三方库时务必提高警惕,避免成为黑客攻击受害者。

相关资讯

腾讯朱雀实验室推出代码防护技术Deep Puzzling,让代码更难被猜透

随着AI技术与网络安全结合得越来越紧密,基于AI技术的网络攻防手段也在日益更替。11月26日,全球顶级的信息安全峰会HITB Cyberweek 2021于近日举办,腾讯朱雀实验室专家研究员Jifeng Zhu和研究员Keyun Luo受邀参加,并进行了题为《Deep Puzzling: Binary Code Intention Hiding based on AI Uninterpretability》(《基于AI不可解释性的二进制代码意图隐藏》)的议题分享。会上,腾讯朱雀实验室展示了如何利用AI模型的特性,实

PC 版 ChatGPT 客户端曝“记忆”功能漏洞,黑客可利用恶意文件令 AI 转发对话记录

OpenAI 在今年 2 月宣布为 ChatGPT 推出记忆(Memory)的功能,今年 9 月初这项功能正式向所有用户开放,该功能的主要用途是“设定预设”,从而帮助 AI 向用户更符合需求的答案。不过研究人员 Johann Rehberger 目前披露报告,称这项功能在 PC 版 ChatGPT 客户端上存在漏洞,黑客可借漏洞获取用户对话记录。AI在线获悉,Johann Rehberger 将这项漏洞称为 SpAIware,他表示黑客可通过钓鱼形式让受害者在 PC 版 ChatGPT 客户端中上传特定文件 / 特

安全公司警告黑客正瞄准各大 AI 语言模型平台用户账号,转卖 API 余额 / 获取隐私信息

安全公司 Sysdig 近日发布报告,声称有大量黑客瞄准各大 LLM 大语言模型网络平台发动“LLM 劫持(LLMjacking)”攻击,黑客通过一系列方式盗取用户账号密码,将模型 API 转卖给第三方,还从用户的对话记录中选取隐私信息用于勒索或公开贩售。Sysdig 表示,黑客们似乎“偏好”Anthropic Claude v2 / v3 平台,目前他们检测到黑客主要利用撞库及 PHP 框架 Laravel 的凭据漏洞(CVE-2021-3129)进行攻击,更多偏向企业用户,不知情的受害者可能每天需要替黑客买单超