Meta 联合纽约大学和华盛顿大学提出MetaCLIP,带你揭开CLIP的高品质数据之谜。

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实行室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]。自2021年诞生,CLIP已在计算机视觉识别系统和生成模型上得到了广泛的应用和巨大的成功。我们相信CLIP的创新和成功来自其高品质数据(WIT400M),而非模型或者损失函数本身。虽然3

Meta 联合纽约大学和华盛顿大学提出MetaCLIP,带你揭开CLIP的高品质数据之谜。

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实行室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]

自2021年诞生,CLIP已在计算机视觉识别系统和生成模型上得到了广泛的应用和巨大的成功。我们相信CLIP的创新和成功来自其高品质数据(WIT400M),而非模型或者损失函数本身。虽然3年来CLIP有大量的后续研究,但并未有研究通过对CLIP进行严格的消融实行来了解数据、模型和训练的关系。

CLIP原文仅有简短的数据处理描绘,而后续工作依靠已经训练好的CLIP来重新过滤数据去训练CLIP(学生)模型。更广泛地说,虽然目前的开源着重强调已训练模型权重的公开,而训练数据以及如何从低品质数据获得高品质数据的技巧的公开度却往往并不那么高。

本文带你揭开CLIP的数据品质之谜,为开源社区带来元数据导向的CLIP预训练(MetaCLIP)。

Meta 联合纽约大学和华盛顿大学提出MetaCLIP,带你揭开CLIP的高品质数据之谜。

原文链接:https://arxiv.org/abs/2309.16671

项目链接:https://github.com/facebookresearch/MetaCLIP

论文标题:Demystifying CLIP Data

MetaCLIP数据品质

MetaCLIP根据CLIP原文对数据处理的描绘,提出可扩展到整个CommonCrawl上的数据算法。该算法接受原始互联网数据疏散,打消在元数据上失调的高品质训练数据疏散。

MetaCLIP打消的数据品质源自两个部分:

(1) 通过元数据字符串婚配来抓取高品质人类监督文本;

(2)通过失调数据在元数据上的疏散来最大限度保留长尾数据的信号、弱化噪声以及头部疏散的冗余信息。MetaCLIP的元数据来自50万个WordNet和维基百科的视觉观念(visual concept),它们使被婚配的alt文本包含超越人类平均认知水平的监督品质(superhuman level supervision)。

我们的实行严格遵循CLIP设定来控制研究数据疏散对结果的影响。整个数据提取,训练无需已训练CLIP来过滤数据以及潜在未知的来自OpenAI CLIP的数据偏见。

相反的是,MetaCLIP数据算法同时输出训练数据疏散。这使得训练数据更加透明,以方便调试模型。MetaCLIP在400M训练数据上达到ViT-B 70.8%的零样本ImageNet分类精度;使用1B训练数据上达到72.4%;在2.5B训练数据上使用ViT-bigG模型达到82.1%,而整个模型和训练参数并未进行任何更改(比如学习率或批样本量)。

Meta 联合纽约大学和华盛顿大学提出MetaCLIP,带你揭开CLIP的高品质数据之谜。

消融实行表明:字符串婚配(MetaCLIP w/o bal. (400M))和失调疏散(MetaCLIP(400M)) 对MetaCLIP的数据品质打消重大贡献。

CLIP数据算法介绍

本文正式提出CLIP数据算法,来简化和打消高品质的训练数据。

该方法大致分为:创建元数据,提出数据算法,提高数据品质及输出训练数据等四个步骤。

具体方法见下:

(1) 实现了CLIP数据的相关描绘,包括如何创建元数据;

(2)提出以下数据算法:第一部分为元数据字符串婚配,第二部分为失调数据疏散。该算法简洁可扩展,本文已证明可在所有CommonCrawl 300+B 级图片样本并行运行;

(3)可植入已有数据流水线或者数据加载器(data loader)来提高数据品质;

(4)输出训练数据在元数据上的训练疏散使得训练数据更透明。

该算法的python代码以下:

Meta 联合纽约大学和华盛顿大学提出MetaCLIP,带你揭开CLIP的高品质数据之谜。

MetaCLIP的元数据来自WordNet和Wikipedia的高品质视觉观念(visual concept)。我们根据CLIP原文描绘实现了从维基百科提取uni/bi-gram以及高频标题的过程。

相关选取的超参数以下:

Meta 联合纽约大学和华盛顿大学提出MetaCLIP,带你揭开CLIP的高品质数据之谜。

                                元数据的创建来源

MetaCLIP算法简洁,可以将两部分分开植入已有的数据流水线。

以下图所示,该算法可以在数据流水线的早期进行植入,来减小数据规模和对计算资源存储的开支:

第一部分(元数据字符串婚配)能减少50%的数据量;

第二部分(失调数据疏散)能减少77%的数据量。

Meta 联合纽约大学和华盛顿大学提出MetaCLIP,带你揭开CLIP的高品质数据之谜。

                                算法可轻松接入已有数据流水线,降低处理低品质数据的开支

下图展示了失调数据疏散的效果:横坐标将元数据里每个视觉观念的婚配数量从低到高排列,纵坐标累计婚配。

表格中展示了不同频率区段视觉观念的婚配数量:

Meta 联合纽约大学和华盛顿大学提出MetaCLIP,带你揭开CLIP的高品质数据之谜。

                               失调数据疏散使得1.6B的原始数据被下采样成400M的训练数据。

我们可以看到MetaCLIP数据算法对头部疏散进行了高度下采样,这将降低头部疏散的冗余无效信息和头部数据的噪声(比如untitled photo),所有长尾疏散的视觉观念全部保留。

实行结果

我们设计了两个数据池来运行数据算法。

第一个池的目标是获得400M训练数据来和CLIP进行比较;

第二个池的目标是所有CommonCrawl数据。

我们进一步对第二个数据池运行了两次数据算法,一次设定头尾疏散的阈值(t=20k)与400M一致(最终获得1B数据),一次设定尾部疏散的比例与400M尾部的比例一致(t=170k,最终获得2.5B数据)。

MetaCLIP在DataComp的38个任务上的实行结果以下:

Meta 联合纽约大学和华盛顿大学提出MetaCLIP,带你揭开CLIP的高品质数据之谜。

我们可以看到MetaCLIP在400M上略好于OpenAI CLIP或者OpenCLIP。在第二个池上性能进一步超越400M。更多的数据在更大的模型ViT-bigG上打消更好的效果。而这些性能的提升完全来自数据而非模型结构改进或者训练技巧本身。

在CLIP/SLIP每个分类任务上的详细实行结果请参考原文。

实行结论

本文提出了CLIP的数据算法来打消高品质训练数据:算法可在所有CommonCrawl 的300+B 级图片样本对上并行运行。

实行表明元数据字符串婚配和失调疏散都对结果有重大贡献,算法无需使用CLIP模型过滤或者提高训练开支来提升性能,并且使得训练数据疏散更加透明。

给TA打赏
共{{data.count}}人
人已打赏
工程

在12个视频了解工作中,Mamba先打败了Transformer

2024-4-30 15:21:00

工程

跨越300多年的接力:受陶哲轩启发,数学家决定用AI形式化费马大定理的证实

2024-5-3 10:41:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索