让视觉说话模型搞空间推理,谷歌又整新活了

视觉说话模型虽然强大,但缺乏空间推理威力,最近 Google 的新论文说它的 SpatialVLM 可以做,看看他们是怎么做的。视觉说话模型 (VLM) 已经在广泛的义务上取得了显著进展,包括图象形貌、视觉问答 (VQA)、具身规划、动作识别等等。然而大多数视觉说话模型在空间推理方面仍然存在一些困难,比如需要理解指标在三维空间中的位置或空间关系的义务。关于这一课题,研究者们常常从「人类」身上获得启发:通过具身体验和进化发展,人类拥有固有的空间推理技能,可以毫不费力地确定空间关系,比如指标相对位置或估算距离和大小,而

视觉说话模型虽然强大,但缺乏空间推理威力,最近 Google 的新论文说它的 SpatialVLM 可以做,看看他们是怎么做的。

视觉说话模型 (VLM) 已经在广泛的义务上取得了显著进展,包括图象形貌、视觉问答 (VQA)、具身规划、动作识别等等。然而大多数视觉说话模型在空间推理方面仍然存在一些困难,比如需要理解指标在三维空间中的位置或空间关系的义务。

关于这一课题,研究者们常常从「人类」身上获得启发:通过具身体验和进化发展,人类拥有固有的空间推理技能,可以毫不费力地确定空间关系,比如指标相对位置或估算距离和大小,而无需复杂的思想链或心理计算。

这种对直接空间推理义务的熟练,与当前视觉说话模型威力的局限形成鲜明对比,并引发了一个引人注目的研究课题:是不是能够赋予视觉说话模型类似于人类的空间推理威力?

最近,谷歌提出了一种具备空间推理威力的视觉说话模型:SpatialVLM。

让视觉说话模型搞空间推理,谷歌又整新活了

论文标题:SpatialVLM: Endowing Vision-Language Models with Spatial Reasoning Capabilities

论文地址:https://arxiv.org/pdf/2401.12168.pdf

项目主页:https://spatial-vlm.github.io/

值得注意的是,研究者假设当前视觉说话模型在空间推理威力方面的限制并非源于其架构的局限,而更可能是由于在大规模训练时所利用的常见数据集的限制。例如,许多视觉说话模型是在以图象 – 形貌对为特征的互联网规模数据集上举行训练的,这些数据集中包含的空间信息有限。存在限制的原因是获取富含空间信息的具身数据或 3D 感知查询的高质量人工诠释比较困难,自动数据生成和增强技术是解决该课题的一种方法,然而很多之前的数据生成研究侧重于生成具有真实语义标注的照片逼真图象,忽略了对象和 3D 关系的丰富性。

与之相反,本文研究者专注于直接从现实世界数据中提取空间信息,以捕捉真实 3D 世界的多样性和复杂性。这一创新源自近期视觉模型方面在自动从 2D 图象中生成 3D 空间诠释方面的进展。

SpatialVLM 系统可以实现数据生成和对视觉说话模型举行训练,以增强它们的空间推理威力。具体而言,研究者结合面向开放词的指标检测(open-vocabulary detection)、度量深度估计、语义分割和以指标为中心的形貌模型,实现了在大规模地密集诠释真实世界数据。SpatialVLM 将由视觉模型生成的数据转换成一种可用于形貌、VQA 和空间推理数据的混合体上训练视觉说话模型的格式。

实验证明,本文训练的视觉说话模型表现出许多令人满意的威力。首先,它在回答定性空间课题方面的威力得到显著提升。其次,即使在有噪声的训练数据下,它也能可靠地举行定额估计。这种威力不仅使其具备关于指标大小的常识知识,还使其在重新排列义务的开放词赞美标注方面非常有用。第三,本文的空间视觉说话模型在自然说话界面的基础上,结合强大的大型说话模型,能够举行空间推理链以解决复杂的空间推理义务。

方法概览

为了使视觉说话模型具备定性和定额的空间推理威力,研究者提出生成一个大规模的空间 VQA 数据集用于训练视觉说话模型。具体而言,就是设计一个全面的数据生成框架,首先利用现成的计算机视觉模型,包括开放词检测、度量深度估计、语义分割和以指标为中心的形貌模型,提取以指标为中心的背景信息,然后采用基于模板的方法生成质量合理的大规模空间 VQA 数据。本文中,研究者利用了生成的数据集训练 SpatialVLM,以学习直接的空间推理威力,然后将其与 LLMs 嵌入的高层常识推理相结合,解锁链式思想的空间推理。

让视觉说话模型搞空间推理,谷歌又整新活了

2D 图象的空间基准

研究者设计了一个生成包含空间推理课题的 VQA 数据的流程,具体流程如图 2 中所示。

让视觉说话模型搞空间推理,谷歌又整新活了

1、语义过滤:在本文的数据合成流程中,第一步是采用基于 CLIP 的开放词分类模型对所有图象举行分类,排除不适合的图象。

2、2D 图象提取以指标为中心的背景:这一步获得由像素簇和开放词形貌组成的以指标为中心的实体。

3、2D 背景信息到 3D 背景信息:经过深度估计,将单眼的 2D 像素提升到度量尺度的 3D 点云。本文是第一个将互联网规模的图象提升至以指标为中心的 3D 点云,并用其合成带有 3D 空间推理监督的 VQA 数据。

4、消除歧义:有时一张图象中可能有多个相似类别的指标,导致它们的形貌标签存在歧义。因此,在询问关于这些指标的课题之前,需要确保参考表达不含有歧义。

大规模空间推理 VQA 数据集

研究者通过利用合成数据举行预训练,将「直观」的空间推理威力融入 VLM。因此,合成涉及图象中不超过两个指标(表示为 A 和 B)的空间推理问答对。这里主要考虑以下两类课题:

1、定性课题:询问某些空间关系的判断。例如「给定两个对象 A 和 B,哪个更靠左?」

2、定额课题:询问更精细的答案,包括数字和单位。例如「相对于对象 B,对象 A 向左多少?」、「对象 A 距离 B 有多远?」

此处,研究者指定了 38 种不同类型的定性和定额空间推理课题,每种课题包含大约 20 个课题模板和 10 个答案模板。

图 3 展示了本文获取的合成问答对的示例。研究者创建了一个包括 1000 万张图象和 20 亿个直接空间推理问答对 (50% 是定性课题,50% 是定额课题) 的庞大数据集。

让视觉说话模型搞空间推理,谷歌又整新活了

学习空间推理

直接空间推理:视觉说话模型接收图象 I 和关于空间义务的查询 Q 作为输入,并输出一个答案 A,并且以文本的格式呈现,无需利用外部工具或与其他大型模型举行交互。本文采用与 PaLM-E 相同的架构和训练流程,只是将 PaLM 的骨干替换为 PaLM 2-S。然后,利用原始 PaLM-E 数据集和作者的数据集的混合举行模型训练,其中有 5% 的 token 用于空间推理义务。

链式思想空间推理:SpatialVLM 提供了自然说话接口,可用于查询具有基础概念的课题,当与强大的 LLM 结合利用时,可以执行复杂的空间推理。

与 Socratic Models 和 LLM 协调器中的方法类似,本文利用 LLM (text-davinci-003) 来协调与 SpatialVLM 举行通信,以链式思想提示的方式解决复杂课题,如图 4 所示。

让视觉说话模型搞空间推理,谷歌又整新活了

实验及结果

研究者通过实验证明并回答了如下的课题:

课题 1:本文设计的空间 VQA 数据生成和训练流程,是不是提高了 VLM 的一般空间推理威力?以及它的表现如何?

课题 2:充满噪音数据的合成空间 VQA 数据和不同的训练策略,对学习性能有何影响?

课题 3:装备了「直接」空间推理威力的 VLM,是不是能够解锁诸如链式思想推理和具身规划等新威力?

研究者通过利用 PaLM-E 训练集和本文设计的空间 VQA 数据集的混合来训练模型。为了验证 VLM 在空间推理上的局限是不是是数据课题,他们选择了当前最先进的视觉说话模型作为基线。这些模型的训练过程中语义形貌义务占据了相当的比重,而不是利用本文的空间 VQA 数据集举行训练。

空间 VQA 表现

定性空间 VQA。对于这一课题,人工诠释的答案和 VLM 输出均为自由形式的自然说话。因此,为了评估 VLM 的性能,研究者利用人工评定员确定答案是不是正确,表 1 中展示了各个 VLM 的成功率。

让视觉说话模型搞空间推理,谷歌又整新活了

定额空间 VQA。如表 2 所示,本文的模型在两个指标上都比基线表现更好且遥遥领先。

让视觉说话模型搞空间推理,谷歌又整新活了

空间 VQA 数据对通用 VQA 的影响

第二个课题是,由于与大量的空间 VQA 数据共同训练,VLM 在其他义务上的表现是不是会因此而降低。通过将本文模型与在通用 VQA 基准上没有利用空间 VQA 数据举行训练的基本 PaLM 2-E 举行了比较,如表 3 所总结的,本文的模型在 OKVQA 基准上达到了与 PaLM 2-E 相当的性能,其中包括了有限的空间推理课题,并且在 VQA-v2 test-dev 基准上表现略好,该基准包含了空间推理课题。

让视觉说话模型搞空间推理,谷歌又整新活了

ViT 编码器在空间推理中的影响

Frozen ViT (在对比指标上举行训练) 是不是编码了足够的信息来举行空间推理?为了探索这一点,研究者的实验从第 110,000 步的训练开始,分成两个训练运行,一个 Frozen ViT,另一个 Unfrozen ViT。通过对这两个模型举行了 70,000 步的训练,评估结果如表 4 所示。

让视觉说话模型搞空间推理,谷歌又整新活了

含噪声的定额空间答案的影响

研究者者利用机器人操作数据集训练视觉说话模型,发现模型能够在操作领域举行精细的距离估计 (图 5),进一步证明了数据的准确性。

让视觉说话模型搞空间推理,谷歌又整新活了

表 5 比较了不同的高斯噪声标准差对定额空间 VQA 中整体 VLM 性能的影响。

让视觉说话模型搞空间推理,谷歌又整新活了

空间推理启发新应用

1、视觉说话模型作为密集赞美诠释器

视觉说话模型在机器人学领域有一个重要的应用。最近的研究表明,视觉说话模型和大型说话模型可以作为机器人义务的通用开放词赞美诠释器和成功检测器,可用于制定有效的控制策略。然而,VLM 的赞美标注威力通常受到空间意识不足的限制。由于 SpatialVLM 能够从图象中定额估计距离或尺寸,因此它独特地适用作为密集的赞美诠释器。作者举行一项真实的机器人实验,用自然说话指定了一个义务,并要求 SpatialVLM 为轨迹中的每一帧诠释赞美。

图 6 中每个点表示一个指标的位置,它们的颜色表示诠释的赞美。随着机器人朝着指定指标的进展,可以看到赞美是单调增加的,表明 SpatialVLM 作为密集赞美诠释器的威力。

让视觉说话模型搞空间推理,谷歌又整新活了

2、链式思想空间推理

研究者还研究了 SpatialVLM 是不是能够用于执行需要多步推理的义务,考虑到它对基本空间课题的增强回答威力。作者在图 1 和图 4 中展示了一些例子。当大说话模型 (GPT-4) 装备有 SpatialVLM 作为空间推理子模块时,可以执行复杂的空间推理义务,比如回答环境中的 3 个对象是不是能够形成「等腰三角形」。

更多技术细节和实验结果请参阅原论文。

给TA打赏
共{{data.count}}人
人已打赏
应用

Sam Altman7万亿美元芯片计划被怼,“硅仙人”:我只用不到1万亿

2024-2-19 12:59:00

应用

离开OpenAI待业的Karpathy做了个大模型新项目,Star量一日破千

2024-2-19 14:45:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索