OpenAI新模型用的嵌入技术被网友扒出来了

学起来吧。前几天,OpenAI 来了一波重磅更新,一口气宣布了 5 个新模型,其中就包括两个新的文本嵌入模型。我们知道,嵌入是表示自然语言或代码等内容中概念的数字序列。嵌入使得机器进修模型和其他算法更容易理解内容之间的关联,也更容易执行聚类或检索等任务。运用更大的嵌入(比如将它们保存在向量保存器中以供检索)通常要比更小的嵌入消耗更高的成本、以及更多的算力、内存和保存。而 OpenAI 此次推出的两个文本嵌入模型分别是更小且高效的 text-embedding-3-small 模型和更大且更强大的 text-embe

学起来吧。

OpenAI新模型用的嵌入技术被网友扒出来了

前几天,OpenAI 来了一波重磅更新,一口气宣布了 5 个新模型,其中就包括两个新的文本嵌入模型。

我们知道,嵌入是表示自然语言或代码等内容中概念的数字序列。嵌入使得机器进修模型和其他算法更容易理解内容之间的关联,也更容易执行聚类或检索等任务。

运用更大的嵌入(比如将它们保存在向量保存器中以供检索)通常要比更小的嵌入消耗更高的成本、以及更多的算力、内存和保存。而 OpenAI 此次推出的两个文本嵌入模型分别是更小且高效的 text-embedding-3-small 模型和更大且更强大的 text-embedding-3-large 模型。

这两个新嵌入模型都运用一种技术进行训练,允许开发人员权衡运用嵌入的性能和成本。具体来说,开发者通过在 dimensions API 参数中传递嵌入而不丢失其概念表征属性,从而延长嵌入(即从序列末尾删除一些数字)。例如在 MTEB 基准上,text-embedding-3-large 可以延长为 256 的巨细, 同时性能仍然优于未延长的 text-embedding-ada-002 嵌入(巨细为 1536)。

OpenAI新模型用的嵌入技术被网友扒出来了

这一技术应用非常灵活:比如当运用仅支持最高 1024 维嵌入的向量数据保存时,开发者现在仍然可以运用最好的嵌入模型 text-embedding-3-large 并指定 dimensions API 参数的值为 1024,使得嵌入维数从 3072 开始延长,牺牲一些准确度以换取更小的向量巨细。

OpenAI 所运用的「延长嵌入」步骤,随后引起了研究者们的广泛注意。

人们发现,这种步骤和 2022 年 5 月的一篇论文所提出的「Matryoshka Representation Learning」步骤是相同的。

OpenAI新模型用的嵌入技术被网友扒出来了

OpenAI新模型用的嵌入技术被网友扒出来了

OpenAI 的新嵌入模型更新背后隐藏的是 @adityakusupati 等人提出的一种很酷的嵌入表征技术。

而 MRL 的一作 Aditya Kusupati 也现身说法:「OpenAI 在 v3 嵌入 API 中默认运用 MRL 用于检索和 RAG!其他模型和服务应该很快就会迎头赶上。」

OpenAI新模型用的嵌入技术被网友扒出来了

那么 MRL 到底是什么?效果如何?都在下面这篇 2022 年的论文里。

MRL 论文介绍

OpenAI新模型用的嵌入技术被网友扒出来了

论文标题:Matryoshka Representation Learning

论文链接:https://arxiv.org/pdf/2205.13147.pdf

研究者提出的问题是:能否设计一种灵活的表征步骤,以顺应计算资源不同的多个下游任务?

MRL 通过以嵌套方式对 O (log (d)) 低维向量进行显式优化在同一个高维向量中进修不同容量的表征,因此被称为 Matryoshka「俄罗斯套娃」。MRL 可适用于任何现有的表征 pipeline,并可轻松扩展到计算机视觉和自然语言处理中的许多标准任务。

图 1 展示了 MRL 的核心理念以及所进修 Matryoshka 表征的自顺应部署设置:

OpenAI新模型用的嵌入技术被网友扒出来了

Matryoshka 表征的第一个 m-dimensions(m∈[d])是一个信息丰富的低维向量,不需要额外的训练成本,其精确度不亚于独立训练的 m 维表征法。Matryoshka 表征的信息量随着维度的增加而增加,形成了一种从粗到细的表征法,而且无需大量的训练或额外的部署开销。MRL 为表征向量提供了所需的灵活性和多保真度,可确保在准确性与计算量之间实现近乎最佳的权衡。凭借这些优势,MRL 可根据精度和计算约束条件进行自顺应部署。

在这项工作中,研究者将重点放在了现实世界 ML 系统的两个关键构件上:大规模分类和检索。

在分类方面,研究者运用了自顺应级联,并运用由 MRL 训练的模型产生的可变巨细表征,从而大大降低了达到特定准确率所需的嵌入式平均维数。例如,在 ImageNet-1K 上,MRL + 自顺应分类的结果是,在精度与基线相同的情况下,表征巨细最多可缩小 14 倍。

OpenAI新模型用的嵌入技术被网友扒出来了

同样地,研究者在自顺应检索系统中也运用了 MRL。在给定一个查询的情况下,运用查询嵌入的前几个 dimensions 来筛选检索候选对象,然后连续运用更多的 dimensions 对检索集进行重新排序。与运用标准嵌入向量的单次检索系统相比,这种步骤的简单实现可实现 128 倍的理论速度(以 FLOPS 计)和 14 倍的墙上时钟时间速度;需要注意的是,MRL 的检索精度与单次检索的精度相当(第 4.3.1 节)。

OpenAI新模型用的嵌入技术被网友扒出来了

最后,由于 MRL 明确地进修了从粗到细的表征向量,因此直观地说,它应该在不同 dimensions 之间共享更多的语义信息(图 5)。这反映在长尾持续进修设置中,准确率最多可提高 2%,同时与原始嵌入一样稳健。此外,由于 MRL 具有粗粒度到细粒度的特性,它还可以用作分析实例分类难易程度和信息瓶颈的步骤。

OpenAI新模型用的嵌入技术被网友扒出来了

更多研究细节,可参考论文原文。

给TA打赏
共{{data.count}}人
人已打赏
应用

线上课程开售!暨视频生成前沿研究与运用 AI 技巧论坛圆满收官

2024-1-29 11:31:00

应用

哈工大联合快手提出CogGPT:大模型也需要认知迭代

2024-1-29 14:27:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索