剑桥团队开源:赋能多模态大模型RAG应用,首个预训练通用多模态后期交互常识检索器

PreFLMR模型是一个通用的预训练多模态常识检索器,可用于搭建多模态RAG应用。模型基于发表于 NeurIPS 2023 的 Fine-grained Late-interaction Multi-modal Retriever (FLMR) 并进行了模型改进和 M2KR 上的大规模预训练。论文链接: 链接:::PreFLMR: Scaling Up Fine-Grained Late-Interaction Multi-modal Retrievers背景尽管多模态大模型(例如 GPT4-Vision、Gemi

PreFLMR模型是一个通用的预训练多模态常识检索器,可用于搭建多模态RAG应用。模型基于发表于 NeurIPS 2023 的 Fine-grained Late-interaction Multi-modal Retriever (FLMR) 并进行了模型改进和 M2KR 上的大规模预训练。

剑桥团队开源:赋能多模态大模型RAG应用,首个预训练通用多模态后期交互常识检索器

论文链接:https://arxiv.org/abs/2402.08327

DEMO 链接:https://u60544-b8d4-53eaa55d.westx.seetacloud.com:8443/

项目主页链接:https://preflmr.github.io/

论文标题:PreFLMR: Scaling Up Fine-Grained Late-Interaction Multi-modal Retrievers

背景

尽管多模态大模型(例如 GPT4-Vision、Gemini 等)展现出了强大的通用图文理解能力,它们在回答需要专业常识的问题时表示依然不尽人意。即使 GPT4-Vision 也无法回答常识密集型问题(图一上),这成为了很多企业级落地应用的瓶颈。

剑桥团队开源:赋能多模态大模型RAG应用,首个预训练通用多模态后期交互常识检索器

                             图 1:GPT4-Vision 在 PreFLMR 多模态常识检索器的帮助下可以获得相关常识,生成正确的答案。图中展示了模型的真实输出。

针对这个问题,检索增强生成(RAG,Retrieval-Augmented Generation)提供了一个简单有效的让多模态大模型成为” 领域专家” 的方案:首先,一个轻量的常识检索器(Knowledge Retriever)从专业数据库(例如 Wikipedia 或企业常识库)中获得相关的专业常识;然后,大模型将这些常识和问题一起作为输入,生成准确的答案。多模态常识提炼器的常识 “召回能力” 直接决定了大模型在回答推理时能否获得准确的专业常识。

近期,剑桥大学信息工程系人工智能实验室完整开源了首个预训练、通用多模态后期交互常识检索器 PreFLMR (Pre-trained Fine-grained Late-interaction Multi-modal Retriever)。相比以往常见的模型,PreFLMR 有以下特点:

1.PreFLMR 是一个可以解决文文检索,图文检索,常识检索等多个子恣意的通用预训练模型。该模型经过百万级的多模态数据预训练后,在多个下游检索恣意中取得了优秀的表示。同时,作为一个优秀的基底模型,PreFLMR 在私有数据上稍加训练就能够获得表示极佳的领域专用模型。

剑桥团队开源:赋能多模态大模型RAG应用,首个预训练通用多模态后期交互常识检索器

                                图 2:PreFLMR 模型同时在多项恣意上取得极佳的多模态检索表示,是一个极强的预训练基底模型。

2. 传统的密集文本检索(Dense Passage Retrieval, DPR)只使用一个向量表征询问(Query)或文档(Document)。剑桥团队在 NeurIPS 2023 发表的 FLMR 模型证明了 DPR 的单向量表征设计会导致细粒度信息损失,导致 DPR 在需要精细信息匹配的检索恣意上表示不佳。尤其是在多模态恣意中,用户的询问(Query)包含复杂场景信息,压缩至一维向量极大抑制了特征的表达能力。PreFLMR 继承并改进了 FLMR 的结构,使其在多模态常识检索中有得天独厚的优势。

剑桥团队开源:赋能多模态大模型RAG应用,首个预训练通用多模态后期交互常识检索器

图 3:PreFLMR 在字符级别(Token level)上编码询问(Query,左侧 1、2、3)和文档(Document,右侧 4),相比于将所有信息压缩至一维向量的 DPR 系统有信息细粒度上的优势。

3.PreFLMR 能够根据用户输入的指令(例如 “提炼能用于回答以下问题的文档” 或 “提炼与图中物品相关的文档”),从庞大的常识库中提炼相关的文档,帮助多模态大模型大幅提升在专业常识问答恣意上的表示。

剑桥团队开源:赋能多模态大模型RAG应用,首个预训练通用多模态后期交互常识检索器

剑桥团队开源:赋能多模态大模型RAG应用,首个预训练通用多模态后期交互常识检索器

剑桥团队开源:赋能多模态大模型RAG应用,首个预训练通用多模态后期交互常识检索器

                             图 4:PreFLMR 可以同时处理图片提炼文档、根据问题提炼文档、根据问题和图片一起提炼文档的多模态询问恣意。

剑桥大学团队开源了三个不同规模的模型,模型的参数量由小到大分别为:PreFLMR_ViT-B (207M)、PreFLMR_ViT-L (422M)、PreFLMR_ViT-G (2B),供使用者根据实际情况选取。

除了开源模型 PreFLMR 本身,该项目还在该研究方向做出了两个重要贡献:

该项目同时开源了一个训练和评估通用常识检索器的大规模数据集,Multi-task Multi-modal Knowledge Retrieval Benchmark (M2KR),包含 10 个在学界中被广泛研究的检索子恣意和总计超过百万的检索对。

在论文中,剑桥大学团队对比了不同大小、不同表示的图象编码器和文本编码器,总结了扩大参数和预训练多模态后期交互常识检索系统的最佳实践,为未来的通用检索模型提供经验性的指导。

下文将简略介绍 M2KR 数据集,PreFLMR 模型和实验结果分析。

M2KR 数据集

为了大规模预训练和评估通用多模态检索模型,作者汇编了十个公开的数据集并将其转换为统一的问题 – 文档检索格式。这些数据集的原本恣意包括图象描述(image captioning),多模态对话(multi-modal dialogue)等等。下图展示了其中五个恣意的问题(第一行)和对应文档(第二行)。

剑桥团队开源:赋能多模态大模型RAG应用,首个预训练通用多模态后期交互常识检索器

                                        图 5:M2KR 数据集中的部分常识提炼恣意

PreFLMR 检索模型

剑桥团队开源:赋能多模态大模型RAG应用,首个预训练通用多模态后期交互常识检索器

图 6:PreFLMR 的模型结构。询问(Query)被编码为 Token-level 的特征。PreFLMR 对询问矩阵中的每一个向量,找到文档矩阵中的最近向量并计算点积,然后对这些最大点积求和得到最后的相关度。

PreFLMR 模型基于发表于 NeurIPS 2023 的 Fine-grained Late-interaction Multi-modal Retriever (FLMR) 并进行了模型改进和 M2KR 上的大规模预训练。相比于 DPR,FLMR 和 PreFLMR 用由所有的 token 向量组成的矩阵对文档和询问进行表征。Tokens 包含文本 tokens 和投射到文本空间中的图象 tokens。后期交互(late interaction)是一种高效计算两个表征矩阵之间相关性的算法。具体做法为:对询问矩阵中的每一个向量,找到文档矩阵中的最近向量并计算点积。然后对这些最大点积求和得到最后的相关度。这样,每个 token 的表征都可以显式地影响最终的相关性,以此保留了 token-level 的细粒度(fine-grained)信息。得益于专门的后期交互检索引擎,PreFLMR 在 40 万文档中提炼 100 个相关文档仅需 0.2 秒,这极大地提高了 RAG 场景中的可用性。

PreFLMR 的预训练包含以下四个阶段:

文本编码器预训练:首先,在 MSMARCO(一个纯文本常识检索数据集)上预训练一个后期交互文文检索模型作为 PreFLMR 的文本编码器。

图象 – 文本投射层预训练:其次,在 M2KR 上训练图象 – 文本投射层并冻结其它部分。该阶段只使用经过投射的图象向量进行检索,旨在防止模型过度依赖文本信息。

持续预训练:然后,在 E-VQA,M2KR 中的一个高质量常识密集型视觉问答恣意上持续训练文本编码器和图象 – 文本投射层。这一阶段旨在提升 PreFLMR 的精细常识检索能力。

通用检索训练:最后,在整个 M2KR 数据集上训练所有权重,只冻结图象编码器。同时,将询问文本编码器和文档文本编码器的参数解锁进行分别训练。这一阶段旨在提高 PreFLMR 的通用检索能力。

同时,作者展示了 PreFLMR 可以在子数据集(如 OK-VQA、Infoseek)上进一步微调以在特定恣意上获得更好的检索性能。

实验结果和纵向扩展

最佳检索结果:表示最好的 PreFLMR 模型使用 ViT-G 作为图象编码器和 ColBERT-base-v2 作为文本编码器,总计二十亿参数。它在 7 个 M2KR 检索子恣意(WIT,OVEN,Infoseek, E-VQA,OKVQA 等)上取得了超越基线模型的表示。

扩展视觉编码更加有效:作者发现将图象编码器 ViT 从 ViT-B(86M)升级到 ViT-L(307M)带来了显著的效果提升,但是将文本编码器 ColBERT 从 base(110M)扩展到 large(345M)导致表示下降并造成了训练不稳定问题。实验结果表明对于后期交互多模态检索系统,增加视觉编码器的参数带来的回报更大。同时,使用多层 Cross-attention 进行图象 – 文本投射的效果与使用单层相同,因此图象 – 文本投射网络的设计并不需要过于复杂。

PreFLMR 让 RAG 更加有效:在常识密集型视觉问答恣意上,使用 PreFLMR 进行检索增强大大提高了最终系统的表示:在 Infoseek 和 EVQA 上分别达到了 94% 和 275% 的效果提升,经过简单的微调,基于 BLIP-2 的模型能够击败千亿参数量的 PALI-X 模型和使用 Google API 进行增强的 PaLM-Bison+Lens 系统。

结论

剑桥人工智能实验室提出的 PreFLMR 模型是第一个开源的通用后期交互多模态检索模型。经过在 M2KR 上的百万级数据预训练,PreFLMR 在多项检索子恣意中展现出强劲的表示。M2KR 数据集,PreFLMR 模型权重和代码均可以在项目主页 https://preflmr.github.io/ 获取。

拓展资源

FLMR paper (NeurIPS 2023): https://proceedings.neurips.cc/paper_files/paper/2023/hash/47393e8594c82ce8fd83adc672cf9872-Abstract-Conference.html 

代码库:https://github.com/LinWeizheDragon/Retrieval-Augmented-Visual-Question-Answering

英文版博客:https://www.jinghong-chen.net/preflmr-sota-open-sourced-multi/

FLMR 简介:https://www.jinghong-chen.net/fined-grained-late-interaction-multimodal-retrieval-flmr/

给TA打赏
共{{data.count}}人
人已打赏
应用

通用文档懂得新SOTA,多模态大模型TextMonkey来了

2024-3-25 14:30:00

应用

离职google的Transformer作者创业,连发3个模型(附技术报告)

2024-3-25 14:52:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索