谷歌承认“窃取”OpenAI 模型关键信息:成本低至 150 元,调用 API 即可得手

什么?谷歌成功偷家 OpenAI,还窃取到了 gpt-3.5-turbo 关键信息???是的,你没看错。根据谷歌自己的说法,它不仅还原了 OpenAI 大模型的整个投影矩阵(projection matrix),还知道了确切隐藏维度大小。而且方法还极其简单 —— 只要通过 API 访问,不到 2000 次巧妙的查询就搞定了。成本根据调用次数来看,最低 20 美元以内(折合人民币约 150 元)搞定,并且这种方法同样适用于 GPT-4。好家伙,这一回阿尔特曼是被将军了!这是谷歌的一项最新研究,它报告了一种攻击窃取大模

什么?谷歌成功偷家 OpenAI,还窃取到了 gpt-3.5-turbo 关键信息???

谷歌承认“窃取”OpenAI 模型关键信息:成本低至 150 元,调用 API 即可得手

是的,你没看错。

根据谷歌自己的说法,它不仅还原了 OpenAI 大模型的整个投影矩阵(projection matrix),还知道了确切隐藏维度大小。

而且方法还极其简单 —— 只要通过 API 访问,不到 2000 次巧妙的查询就搞定了。

成本根据调用次数来看,最低 20 美元以内(折合人民币约 150 元)搞定,并且这种方法同样适用于 GPT-4

好家伙,这一回阿尔特曼是被将军了!

谷歌承认“窃取”OpenAI 模型关键信息:成本低至 150 元,调用 API 即可得手

这是谷歌的一项最新研究,它报告了一种攻击窃取大模型关键信息的方法。

基于这种方法,谷歌破解了 GPT 系列两个基础模型 Ada 和 Babbage 的整个投影矩阵。如隐藏维度这样的关键信息也直接破获:一个为 1024,一个为 2048。

谷歌承认“窃取”OpenAI 模型关键信息:成本低至 150 元,调用 API 即可得手

所以,谷歌是怎么实现的?

攻击大模型的最后一层

该方法核心攻击的目标是模型的嵌入投影层(embedding projection layer),它是模型的最后一层,负责将隐藏维度映射到 logits 向量。

由于 logits 向量实际上位于一个由嵌入投影层定义的低维子空间内,所以通过向模型的 API 发出针对性查询,即可提取出模型的嵌入维度或者最终权重矩阵。

通过大量查询并应用奇异值排序(Sorted Singular Values)可以识别出模型的隐藏维度。

比如针对 Pythia 1.4B 模型进行超过 2048 次查询,图中的峰值出现在第 2048 个奇异值处,则表示模型的隐藏维度是 2048.

谷歌承认“窃取”OpenAI 模型关键信息:成本低至 150 元,调用 API 即可得手

可视化连续奇异值之间的差异,也能用来确定模型的隐藏维度。这种方法可以用来验证是否成功从模型中提取出关键信息。

在 Pythia-1.4B 模型上,当查询次数达到 2047 时出现峰值,则表明模型隐藏维度大小为 2048.

谷歌承认“窃取”OpenAI 模型关键信息:成本低至 150 元,调用 API 即可得手

并且攻击这一层能够揭示模型的“宽度”(即模型的总体参数量)以及更多全局性的信息,还能降低一个模型的“黑盒程度”,给后续攻击“铺路”。

研究团队实测,这种攻击非常高效。无需太多查询次数,即可拿到模型的关键信息。

比如攻击 OpenAI 的 Ada 和 Babbage 并拿下整个投影矩阵,只需不到 20 美元;攻击 GPT-3.5 需要大约 200 美元。

它适用于那些 API 提供完整 logprobs 或者 logit bias 的生成式模型,比如 GPT-4、PaLM2。

谷歌承认“窃取”OpenAI 模型关键信息:成本低至 150 元,调用 API 即可得手

论文中表示,尽管这种攻击方式能获取的模型信息并不多,但是能完成攻击本身就已经很让人震惊了。

已通报 OpenAI

如此重要的信息被竞争对手以如此低成本破解,OpenAI 还能坐得住吗?

咳咳,好消息是:OpenAI 知道,自己人还转发了一波。

谷歌承认“窃取”OpenAI 模型关键信息:成本低至 150 元,调用 API 即可得手

作为正经安全研究,研究团队在提取模型最后一层参数之前,已征得 OpenAI 同意。

攻击完成后,大家还和 OpenAI 确认了方法的有效性,最终删除了所有与攻击相关的数据。

所以网友调侃:

一些具体数字没披露(比如 gpt-3.5-turbo 的隐藏维度),算 OpenAI 求你的咯。

谷歌承认“窃取”OpenAI 模型关键信息:成本低至 150 元,调用 API 即可得手

值得一提的是,研究团队中还包括一位 OpenAI 研究员。

谷歌承认“窃取”OpenAI 模型关键信息:成本低至 150 元,调用 API 即可得手

谷歌承认“窃取”OpenAI 模型关键信息:成本低至 150 元,调用 API 即可得手

这项研究的主要参与者来自谷歌 DeepMind,但还包括苏黎世联邦理工学院、华盛顿大学、麦吉尔大学的研究员们,以及 1 位 OpenAI 员工。

此外,作者团队也给了防御措施包括:

从 API 下手,彻底删除 logit bias 参数;或者直接从模型架构下手,在训练完成后修改最后一层的隐藏维度 h 等等。

基于此,OpenAI 最终选择修改模型 API,“有心人”想复现谷歌的操作是不可能了。

但不管怎么说:

谷歌等团队的这个实验证明,OpenAI 锁紧大门也不一定完全保险了。(要不你自己主动点开源了吧)

谷歌承认“窃取”OpenAI 模型关键信息:成本低至 150 元,调用 API 即可得手

论文链接:

https://arxiv.org/abs/2403.06634

本文来自微信公众号:量子位 (ID:QbitAI),作者:明敏 丰色

相关资讯

比现有方法快1000倍!华盛顿大学和微软团队使用图神经网络从单个蛋白质结构中预测隐藏Pocket的位置

编辑 | 萝卜皮有的蛋白质在基态结构中缺乏 Pocket,因此被认为是「不可成药的蛋白质」。通过靶向隐藏 Pocket,可以在「不可成药的蛋白质」中寻找新的机会,来扩大药物发现的范围。然而,识别隐藏 Pocket 是一项劳动密集型且十分缓慢的工作。能否准确快速地预测结构,以及在何处可能形成隐藏 Pocket 的能力,可以加快寻找隐藏 Pocket 的速度。在这里,华盛顿大学和微软团队的研究人员介绍了 PocketMiner,这是一种图形神经网络,经过训练可以预测分子动力学模拟中 Pocket 可能打开的位置。将 P

提示词用上“过去式”,秒破 GPT-4o 等六大模型安全限制:中文语境也好使

只要在提示词中把时间设定成过去,就能轻松突破大模型的安全防线。而且对 GPT-4o 尤其有效,原本只有 1% 的攻击成功率直接飙到 88%,几乎是“有求必应”。有网友看了后直言,这简直是有史以来最简单的大模型越狱方式。来自洛桑联邦理工学院的一篇最新论文,揭开了这个大模型安全措施的新漏洞。而且攻击方式简单到离谱,不用像“奶奶漏洞”那样专门构建特殊情境,更不必说专业对抗性攻击里那些意义不明的特殊符号了。只要把请求中的时间改成过去,就能让 GPT-4o 把燃烧弹和毒品的配方和盘托出。而且量子位实测发现,把提示词改成中文,

ECCV 2024 | 让GPT-4图像理解更易出错,全新策略增强VLP模型对抗迁移性

AIxiv专栏是AI在线发布学术、技术内容的栏目。过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]本文作者分别来自南开大学、南洋理工大学和新加坡科技局。第一作者高森森为南开大学大四学生,此工作为其在新加坡科技局实习期间完成,实习导师为本文通讯作者郭青研究员(主页:)。本文的共同第一作者