字节豆包、武大提出 CAL:通过视觉相干的 token 增强多模态对齐效果

AIxiv专栏是机器之心发布学术、技术实质的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇实质,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]当前主流的视觉说话模型(VLM)主要鉴于大说话模型(LLM)进一步微调。因此需要通过各种方式将图象映照到 LLM 的嵌入空间,然后使用自回归方式根据图象 token 预测答案。在这个进程中

字节豆包、武大提出 CAL:通过视觉相干的 token 增强多模态对齐效果

AIxiv专栏是机器之心发布学术、技术实质的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇实质,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]

当前主流的视觉说话模型(VLM)主要鉴于大说话模型(LLM)进一步微调。因此需要通过各种方式将图象映照到 LLM 的嵌入空间,然后使用自回归方式根据图象 token 预测答案。

在这个进程中,模态的对齐是通过文本 token 隐式实现的,如何做好这一步的对齐非常关键。

针对这一问题,武汉大学、字节跳动豆包大模型团队和中国科学院大学的研究人员提出了一种鉴于对比学习的文本 token 筛选步骤(CAL),从文本中筛选出与图象高度相干的 token,并加大其损失函数权重,从而实现更精准的多模态对齐。

字节豆包、武大提出 CAL:通过视觉相干的 token 增强多模态对齐效果

论文链接:https://arxiv.org/pdf/2405.17871

代码链接:https://github.com/foundation-multimodal-models/CAL

CAL 有以下几个亮点:

可以直接嵌套到训练进程,无需额外预训练阶段。

在 OCR 和 Caption benchmarks 上获得了明显的提升,从可视化中可以发现 CAL 使得图片模态对齐效果更好。

CAL 使得训练进程对噪声数据抵抗能力更强。

研究动机

目前视觉说话模型依赖于图片模态的对齐,如何做好对齐非常关键。目前主流的步骤是通过文本自回归的方式进行隐式对齐,但是每一个文本 token 对图象对齐的贡献是不一致的,对这些文本 token 进行区分是非常有必要的。

CAL 提出,在现有的视觉说话模型(VLM)训练数据中,文本 token 可以被分为三类:

与图片高度相干的文本:如实体(例如人、动物、物体)、数量、颜色、文字等。这些 token 与图象信息直接对应,对多模态对齐至关重要。

与图片低相干度的文本:如承接词或可以通过前文推断出的实质。这些 token 实际上主要是在训练 VLM 的纯文本能力。

与图片实质相悖的文本:这些 token 与图象信息不一致,甚至可能提供误导信息,对多模态对齐进程产生负面影响。

字节豆包、武大提出 CAL:通过视觉相干的 token 增强多模态对齐效果

                                图一:绿色标记为与图片高度相干 token,红色为实质相悖,无色为中性 token

在训练进程中,后两类 token 整体而言实际上占据了较大比例,但由于它们并不强依赖于图片,对图片的模态对齐作用不大。因此,为了实现更好的对齐,需要加大第一类文本 token,即与图片高度相干部分 token 的权重。如何找出这一部分 token 成为了解决这个问题的关键所在。

步骤

找出与图片高度相干 token 这个问题可以通过 condition contrastive 的方式来解决。

 对于训练数据中的每一个图文对,在没有图片输入的情形下,每一个文本 token 上的 logit 代表着 LLM 鉴于上下文情形和已有知识对这种情形出现的估计值。

如果在前面添加图片输入,相当于提供额外的上下文信息,这种情形下每一个 text token 的 logit 会鉴于新的情形进行调整。这两种情形的 logit 变化量代表着图片这个新的条件对每一个文本 token 的影响大小。

具体来说,在训练进程中,CAL 将图文序列和单独的文本序列分别输入到大说话模型(LLM)中,得到每一个文本 token 的 logit。通过计算这两种情形下的 logit 差值,可以衡量图片对每一个 token 的影响程度。logit 差值越大,说明图片对该 token 的影响越大,因此该 token 与图象越相干。下图展示了文本 token 的 logit diff 和 CAL 步骤的流程图。

字节豆包、武大提出 CAL:通过视觉相干的 token 增强多模态对齐效果

                         图二:左图是对两种情形下 token logit diff 的可视化,右图是 CAL 步骤流程的可视化

实验

CAL 在 LLaVA 和 MGM 两个主流模型上进行了实验验证,在不同规模的模型下均实现了性能提升。

包含以下四个部分的验证:

(1)使用 CAL 的模型在各项基准测试指标上表现更佳。

字节豆包、武大提出 CAL:通过视觉相干的 token 增强多模态对齐效果

字节豆包、武大提出 CAL:通过视觉相干的 token 增强多模态对齐效果

(2) 通过按比例随机交换两个图文对中的文本来制造一批噪声数据(图文错配),并用于模型训练,CAL 使得训练进程具有更强的数据抗噪性能。字节豆包、武大提出 CAL:通过视觉相干的 token 增强多模态对齐效果

                              图三:在不同强度训练噪声情形下,CAL 与基线的性能表现

(3)对 QA case 中的答案部分计算其与图片 token 的注意力分数分布,并将其绘制在原图上,CAL 训练的模型拥有更清晰的注意力分布图。

字节豆包、武大提出 CAL:通过视觉相干的 token 增强多模态对齐效果

                             图四:基线与 CAL 的 attention map 可视化,每对中的右边为 CAL

(4)将每一个图片 token 映照为它最相似 LLM 词表中的文本 token,将其绘制到原图上,CAL 训练的模型映照实质更接近图片实质。字节豆包、武大提出 CAL:通过视觉相干的 token 增强多模态对齐效果

                              图五:将 image token 映照为最相似词表 token,并对应到原图上

团队介绍:

字节跳动豆包大模型团队成立于 2023 年,致力于开发业界最先进的 AI 大模型技术,成为世界一流的研究团队,为科技和社会发展作出贡献。

豆包大模型团队在 AI 领域拥有长期愿景与决心,研究方向涵盖 NLP、CV、语音等,在中国、新加坡、美国等地设有实验室和研究岗位。团队依托平台充足的数据、计算等资源,在相干领域持续投入,已推出自研通用大模型,提供多模态能力,下游支持豆包、扣子、即梦等 50 + 业务,并通过火山引擎开放给企业客户。目前,豆包 APP 已成为中国市场用户量最大的 AIGC 应用。欢迎加入字节跳动豆包大模型团队。

给TA打赏
共{{data.count}}人
人已打赏
工程

谜底抽取正确率达96.88%,xFinder断了大模型「作弊」的小心思

2024-6-17 14:59:00

工程

大模型+蒙特卡洛树搜寻,一招让LLaMa-3 8B奥数水平直逼GPT-4

2024-6-17 15:10:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索