黑客论坛上2000万个OpenAI账户登录信息被售卖,用户需警惕风险

近日,一名自称 “emirking” 的俄罗斯黑客在著名的黑客市场 BreachForums 上发布了声称是2000万个 OpenAI ChatGPT 账户的登录信息,并将其标价出售。 此消息由 AI 创业公司 OpenAI 和网络安全公司 Malwarebytes Labs 于周五联合发布,显示出网络安全威胁的严重性。 图源备注:图片由AI生成,图片授权服务商Midjourney据 Malwarebytes 的博客介绍,emirking 在论坛上发布的帖子是用俄语写成,经过翻译后显示出这名黑客的嚣张态度。

近日,一名自称 “emirking” 的俄罗斯黑客在著名的黑客市场 BreachForums 上发布了声称是2000万个 OpenAI ChatGPT 账户的登录信息,并将其标价出售。此消息由 AI 创业公司 OpenAI 和网络安全公司 Malwarebytes Labs 于周五联合发布,显示出网络安全威胁的严重性。

OpenAI

图源备注:图片由AI生成,图片授权服务商Midjourney

据 Malwarebytes 的博客介绍,emirking 在论坛上发布的帖子是用俄语写成,经过翻译后显示出这名黑客的嚣张态度。他声称:“我有超过2000万个 OpenAI 账户的访问代码。如果你想要,可以联系我 —— 这是一笔财富。” 令人注意的是,emirking 在论坛上的注册时间为2025年1月,只有两篇帖子,这引发了专家的怀疑,他们认为他可能是为了躲避执法机关而使用的新账户。

Malwarebytes 在报告中提到,他们正在对这些信息的真实性进行验证。该报告指出,帖子中暗示该黑客找到了能够绕过平台身份验证系统的访问代码。专家们认为,这么大规模的登录信息泄露不太可能是通过对用户的钓鱼攻击而获得的。他们推测,黑客可能是通过漏洞利用或者获得了管理员凭据,从而攻破了 OpenAI 的认证系统。

该报告还警告用户,如果这次泄露信息属实,那么任何持有这些被盗数据的网络犯罪分子都可能访问用户的 ChatGPT 查询和对话记录。此外,这些敏感信息还可能被用来针对用户进行社交工程攻击,如钓鱼和金融欺诈。

为保护自身安全,Malwarebytes 建议 OpenAI 账户持有者立即采取以下措施:

1. 更改账户密码。

2. 启用多因素认证(MFA)。

3. 监控账户活动,留意任何异常或未经授权的使用。

4. 警惕可能利用与 ChatGPT 交流中获取的信息进行的钓鱼攻击。

最后,Malwarebytes Labs 补充道,尽管有用户声称泄露的凭证并不直接提供访问其 ChatGPT 对话的权限,但仍需对潜在的恶意行为保持警惕。

划重点:

💼 黑客在 BreachForums 上出售2000万个 OpenAI 账户的登录信息,用户需警惕安全风险。  

🔒 专家怀疑登录信息泄露是由于黑客攻破认证系统,而非简单的钓鱼攻击。  

⚠️ OpenAI 账户持有者需立即更改密码、启用多因素认证并监控账户活动。

相关资讯

PC 版 ChatGPT 客户端曝“记忆”功能漏洞,黑客可利用恶意文件令 AI 转发对话记录

OpenAI 在今年 2 月宣布为 ChatGPT 推出记忆(Memory)的功能,今年 9 月初这项功能正式向所有用户开放,该功能的主要用途是“设定预设”,从而帮助 AI 向用户更符合需求的答案。不过研究人员 Johann Rehberger 目前披露报告,称这项功能在 PC 版 ChatGPT 客户端上存在漏洞,黑客可借漏洞获取用户对话记录。AI在线获悉,Johann Rehberger 将这项漏洞称为 SpAIware,他表示黑客可通过钓鱼形式让受害者在 PC 版 ChatGPT 客户端中上传特定文件 / 特

OpenAI 招聘内部风险技术调查员,调查自家员工

北京时间 8 月 27 日,对于 OpenAI 来说,安全威胁可能来自内部。该公司最近发布了一条招聘启事,寻找一名内部风险技术调查员,目的是“加强公司防御内部安全威胁的能力”。招聘信息显示,这份工作的职责包括分析异常活动,检测和降低内部威胁,以及与人力资源和法律部门合作“对可疑活动进行调查”。2023 年,OpenAI 成为恶意行为者的攻击目标。当时,黑客入侵了其内部消息系统。这一事件之所以能够被曝光,是因为两名知情人士向《纽约时报》泄露了信息。除了黑客组织外,这则招聘启事似乎表明 OpenAI 在担心来自自己员工

腾讯朱雀实验室推出代码防护技术Deep Puzzling,让代码更难被猜透

随着AI技术与网络安全结合得越来越紧密,基于AI技术的网络攻防手段也在日益更替。11月26日,全球顶级的信息安全峰会HITB Cyberweek 2021于近日举办,腾讯朱雀实验室专家研究员Jifeng Zhu和研究员Keyun Luo受邀参加,并进行了题为《Deep Puzzling: Binary Code Intention Hiding based on AI Uninterpretability》(《基于AI不可解释性的二进制代码意图隐藏》)的议题分享。会上,腾讯朱雀实验室展示了如何利用AI模型的特性,实