ChatGPT 参数规模被扒:只有 7B

ChatGPT 惨遭攻击,参数规模终于被扒出来了 —— 很可能只有 7B(70 亿)。消息来自南加州大学最新研究,他们使用一种攻击方法,花费不到 1000 美元就把最新版 gpt-3.5-turbo 模型的机密给挖了出来。果然,OpenAI 不 Open,自有别人帮他们 Open。具体来说,南加大团队三位作者破解出了未公布的 gpt-3.5-turbo 嵌入向量维度(embedding size)为 4096 或 4608。而几乎所有已知的开源大模型如 Llama 和 Mistral,嵌入向量维度 4096 的时候

ChatGPT 惨遭攻击,参数规模终于被扒出来了 —— 很可能只有 7B(70 亿)。

消息来自南加州大学最新研究,他们使用一种攻击方法,花费不到 1000 美元就把最新版 gpt-3.5-turbo 模型的机密给挖了出来。

ChatGPT 参数规模被扒:只有 7B

果然,OpenAI 不 Open,自有别人帮他们 Open。

ChatGPT 参数规模被扒:只有 7B

具体来说,南加大团队三位作者破解出了未公布的 gpt-3.5-turbo 嵌入向量维度(embedding size)为 4096 或 4608。

而几乎所有已知的开源大模型如 Llama 和 Mistral,嵌入向量维度 4096 的时候都是约 7B 参数规模。其它比例的话,就会造成网络过宽或过窄,已被证明对模型性能不利。

因此南加大团队指出,可以推测 gpt-3.5-turbo 的参数规模也在 7B 左右,除非是 MoE 架构可能不同。

ChatGPT 参数规模被扒:只有 7B

数月前,曾有微软 CODEFUSION 论文意外泄露当时 GPT-3.5 模型参数为 20B,在后续论文版本中又删除了这一信息。

ChatGPT 参数规模被扒:只有 7B

当时引起了一阵轩然大波,业界很多人分析并非不可能,先训练一个真正的千亿参数大模型,再通过种种手段压缩、蒸馏出小模型,并保留大模型的能力。

而现在的 7B,不知道是从一开始 20B 的消息就不准确,还是后来又再次压缩了。但无论是哪一种,都证明 OpenAI 有很恐怖的模型优化能力。

撬开 ChatGPT 的保护壳

那么,南加大团队是怎么扒出 ChatGPT 未公开配置的呢?还要说到现代语言模型中普遍存在的“Softmax 瓶颈”。

当 Transformer 网络处理完输入,会得到一个低维的特征向量,也就是 Embedding。这个特征向量再经过 Softmax 变换,就得到了最后的概率分布输出。

ChatGPT 参数规模被扒:只有 7B

问题就出在 Softmax 这里,因为矩阵的秩受限于特征向量的维度,所以大模型的输出空间事实上被限制在了一个低维的线性子空间里。

ChatGPT 参数规模被扒:只有 7B

这就像是无论你的衣柜里有多少件衣服,最后能穿出去的搭配,其实是有限的。这个”衣柜”的大小,就取决于你的“特征向量维度”有多大。

南加大团队抓住了这一点,他们发现,只要从 API 调用中获取到足够多的输出样本,就足以拼凑出这个大模型的特征向量维度。

有了这个特征向量维度,可以进一步推断大模型的参数规模还原出完整的概率输出在 API 悄悄更新时也能发现变化,甚至根据单个输出判断来自哪个大模型

更狠的是,推测特征向量维度并不需要太多的样本。

以 OpenAI 的 gpt-3.5-turbo 为例,采集到 4000 多个样本就绰绰有余了,花费还不到 1000 美元。

在论文的最后,团队还探讨了目前的几个应对这种攻击的方法,认为这些方法要么消除了大模型的实用性,要么实施起来成本高昂。

不过他们倒也不认为这种攻击不能有效防护是个坏事,一方面无法用此方法完整窃取模型参数,破坏性有限。另一方面允许大模型 API 用户自己检测模型何时发生变更,有助于大模型供应商和客户之间建立信任,并促使大模型公司提供更高的透明度。

这是一个 feature,不是一个 bug。

ChatGPT 参数规模被扒:只有 7B

论文:

https://arxiv.org/abs/2403.09539

参考链接:

https://x.com/TheXeophon/status/1768659520627097648

本文来自微信公众号:量子位 (ID:QbitAI),作者:梦晨

相关资讯

DataWorks数据建模 - 一揽子数据模型管理解决方案

作者:DataWorks产品经理 刘天鸢在当下的商业环境中,正确的数据治理策略对于数据增值是非常重要的。据统计,企业的数据一直都在以每年50%的速度增长,因此企业数据治理与整合的难度就不断加大了。DataWorks一直以来都致力于成为用户更方便、更快捷地进行数据开发与数据治理的好帮手。此次发布的数据建模,是对已有数据治理领域能力的补齐,为用户带来了在数据开发前,实施事前治理的能力。一、为什么要数据建模引用《大数据之路:阿里巴巴大数据实践》中的内容:“如果把数据看作图书馆里的书,我们希望它们在书架上分门别类地放置;如

谷歌承认“窃取”OpenAI 模型关键信息:成本低至 150 元,调用 API 即可得手

什么?谷歌成功偷家 OpenAI,还窃取到了 gpt-3.5-turbo 关键信息???是的,你没看错。根据谷歌自己的说法,它不仅还原了 OpenAI 大模型的整个投影矩阵(projection matrix),还知道了确切隐藏维度大小。而且方法还极其简单 —— 只要通过 API 访问,不到 2000 次巧妙的查询就搞定了。成本根据调用次数来看,最低 20 美元以内(折合人民币约 150 元)搞定,并且这种方法同样适用于 GPT-4。好家伙,这一回阿尔特曼是被将军了!这是谷歌的一项最新研究,它报告了一种攻击窃取大模

中国移动、电子标准院及 16 家重点央企发布《通用大模型评测标准》

感谢AI在线从中国移动官方获悉,在今天召开的 2024 中国移动全球合作伙伴大会期间,中国移动联合电子标准院及 16 家重点央企共同开展大模型评测体系建设工作,并发布《通用大模型评测标准》。据介绍,该标准是大模型评测体系建设的重要成果,为产业界遴选优质大模型提供重要参考依据。第一阶段将围绕通用领域和 4 个重点行业领域,从评测标准制定、评测基地建设、评测试点应用等方面开展工作。