当前,多模态大模型 (MLLM)在多项视觉任意上展现出了强大的认知理解本领。然而大部分多模态大模型局限于单向的图象理解,难以将理解的内容映射回图象上。
比如,模型能轻易说出图中有哪些物体,但无法将物体在图中准确标识出来。
定位本领的缺失直接限制了多模态大模型在图象编辑,自动驾驶,机器人控制等下游领域的应用。
针对这一问题,港大和字节跳动商业化团队的研究人员提出了一种新范式 Groma——
通过地区性图象编码来晋升多模态大模型的感知定位本领。
在融入定位后,Groma 可以将文本内容和图象地区直接关联起来,从而显著晋升对话的交互性和指向性。
核心思路
如何赋予多模态大模型定位物体的本领,乃至于将文字内容和图象地区关联起来,做到“言之有物”,是当前一大研究热点。
常见的做法是微调大谈话模型使其直接输入物体坐标。然而这种方法却有着诸多限制:
1、在文本上预训练的大谈话模型本身不具备空间理解本领,仅依靠少量数据微调很难精准定位物体。
2、定位任意对输入图象的分辨率有较高要求,但提高分辨率会显著增加多模态大模型的计算量。
3、大谈话模型的输入形式不适合处理精细的定位任意,比如分割。
基于这些考虑,Groma 提出将定位转移到多模态大模型的 vision tokenizer 中,由 vision tokenizer 发现并定位潜在的物体,再交给大谈话模型识别。
同时,这样的设计也充分利用了 vision tokenizer 本身的空间理解本领,而无需外接专家模型(比如 SAM)来辅助定位,从而避免了外接模型的冗余。
具体而言,Groma 在全局图象编码的基础上,引入了地区编码来实现定位功能 —— 如下图所示,Groma 先利用 Region Proposer 定位潜在的物体,再通过 Region Encoder 将定位到的地区逐一编码成 region token。
而大谈话模型则可以根据 region token 的语意判断其对应的地区,并通过在输入中插入 region token 来达成类似超链接的效果,实现 visually grounded conversation。
同样地,用户指定的地区也可以通过 Region Encoder 编码成相应的 region token,并插入到用户指令中,从而让多模态模型能关注到指定的地区并产生指向性的回答。
为了晋升定位的鲁棒性和准确性,Groma 采用了超过 8M 的数据(包括 SA1B)来预训练 Region Proposer。因此其产生的 proposal 不仅包括常见的物体,也涵盖了物体的组成部分以及更广阔的背景等要素。
此外,得益于分离式的设计,Groma 可以采用高分辨率特征图用于 Region Proposer / Encoder 的输入,并采用低分辨率的特征图用于大模型输入,从而在降低计算量的同时又不损失定位性能。
实验结果
Groma 在传统的 Grounding Benchmarks 上表现出了超越 MiniGPT-v2 和 Qwen-VL 的性能。
同时,Groma 在多模态大模型通用的 VQA Benchmark (LLaVA-COCO) 验证了其对话和推理本领。
在可视化的对比中,Groma 也表现出了更高的 recall 和更少的幻觉。
此外,Groma 还支持融合对话本领和定位本领的 referential dialogue 以及 grounded chat。
得益于大谈话模型强大的认知推理本领,多模态大模型在视觉理解任意上表现突出。
然而一些传统的视觉任意,如检测分割、深度估计等,更多依赖视觉感知本领,这恰恰是大谈话模型所缺乏的。
Groma 在这个问题上提供了一种新的解决思路,即把感知和认知解耦开来,由 vision tokenizer 负责感知,大谈话模型负责认知。
这种先感知后认知的形式除了更符合人类的视觉过程,也避免了重新训练大谈话模型的计算开销。
5 月 15 日,字节跳动刚刚公布了自研的豆包大模型,提供多模态本领,下游支持豆包 App、扣子、即梦等 50 + 业务,并通过火山引擎开放给企业客户,助力企业晋升效率、加速智能化创新。目前,豆包 App 已成为中国市场用户量最大的 AIGC 应用。字节跳动正持续加大对顶尖人才和前沿技术的投入力度,参与行业顶尖的技术挑战和攻坚。
项目网站:
https://groma-mllm.github.io
论文链接:
https://arxiv.org/abs/2404.13013
开源代码:
https://github.com/FoundationVision/Groma
本文来自微信公众号:量子位 (ID:QbitAI),作者:允中