太全了!苹果上新视觉模型4M-21,搞定21种模态

当前的多模态和多任务基础模型,如 4M 或 UnifiedIO,显示出有希望的结果。然而,它们接受不同输入和执行不同任务的开箱即用能力,受到它们接受训练的模态和任务的数量(通常很少)的限制。基于此,来自洛桑联邦理工学院(EPFL)和苹果的研究者联合开发了一个任意到任意模态单一模型,该模型在数十种高度多样化的模态上进行训练,并对大规模多模态数据集和文本语料库进行协同训练。训练过程中一个关键步骤是对各种模态执行离散 tokenization,无论它们是类似图像的神经网络特征图、向量、实例分割或人体姿态等结构化数据,还是

当前的多模态和多任务基础模型,如 4M 或 UnifiedIO,显示出有希望的结果。然而,它们接受不同输入和执行不同任务的开箱即用能力,受到它们接受训练的模态和任务的数量(通常很少)的限制。

基于此,来自洛桑联邦理工学院(EPFL)和苹果的研究者联合开发了一个任意到任意模态单一模型,该模型在数十种高度多样化的模态上进行训练,并对大规模多模态数据集和文本语料库进行协同训练。

训练过程中一个关键步骤是对各种模态执行离散 tokenization,无论它们是类似图像的神经网络特征图、向量、实例分割或人体姿态等结构化数据,还是可以表征为文本的数据。

图片

论文地址:https://arxiv.org/pdf/2406.09406

论文主页 https://4m.epfl.ch/

论文标题:4M-21: An Any-to-Any Vision Model for Tens of Tasks and Modalities

该研究展示了训练单一模型,也能完成现有模型至少 3 倍多的任务 / 模态,并且不会损失性能。此外,该研究还实现了更细粒度和更可控的多模态生成能力。

该研究建立在多模态掩码预训练方案的基础上,并通过在数十种高度多样化的模态上进行训练来提高模型能力。通过使用特定于模态的离散分词器对其进行编码,该研究实现了在不同模态上训练单个统一模型。

简单来说,该研究在几个关键维度上扩展了现有模型的功能:

模态:从现有最佳任意到任意模型的 7 种模态增加到 21 种不同模态,从而实现跨模态检索、可控生成和强大的开箱即用性能。这是第一次单个视觉模型可以以任意到任意的方式解决数十个不同的任务,而不会损害性能,并且没有任何传统的多任务学习。

多样性:添加对更多结构化数据的支持,例如人体姿态、SAM 实例、元数据等等。 

tokenization:使用特定于模态的方法研究不同模态的离散 tokenization,例如全局图像嵌入、人体姿态和语义实例。

扩展:将模型大小扩展至 3B 参数,将数据集扩展至 0.5B 样本。 

协同训练:同时在视觉和语言上协同训练。

方法介绍

该研究采用 4M 预训练方案(该研究同样来自 EPFL 和苹果,在去年发布),其被证明是一种通用方法,可以有效扩展到多模态。

具体而言,本文保持架构和多模态掩码训练目标不变,通过扩大模型和数据集的规模、增加训练模型所涉及的模态类型和数量,并且在多个数据集上进行联合训练,可以提升模型的性能和适应性。

模态分为以下几大类别:RGB、几何、语义、边缘、特征图、元数据和文本,如下图所示。

图片

Tokenization

Tokenization 主要包括将不同模态和任务转换为序列或离散 token,从而统一它们的表示空间。研究者使用不同的 tokenization 方法来离散具有不同特征的模态,如图 3 所示。总而言之,本文采用了三种 tokenizer,包括 ViT tokenizer、MLP tokenizer 以及文本 tokenizer。

图片

在架构选择上,本文采用基于 Transformer 的 4M 编码器 - 解码器架构,并添加额外的模态嵌入以适应新模态。

实验结果

接下来,论文展示了 4M-21 多模态能力。

多模态生成

基于迭代解码 token ,4M-21 可以用来预测任意训练模态。如图 2 所示,本文可以从给定的输入模态以一致的方式生成所有模态。图片

此外,由于该研究可以有条件和无条件地从其他模态的任何子集生成任何训练模态,因此它支持几种方法来执行细粒度和多模态生成,如图 4 所示,例如执行多模态编辑。此外,4M-21 表现出改进的文本理解能力,无论是在 T5-XXL 嵌入上还是在常规字幕上,都可以实现几何和语义上合理的生成(图 4,右上)。

图片

多模态检索

如图 5 所示,4M-21 解锁了原始 DINOv2 和 ImageBind 模型无法实现的检索功能,例如通过使用其他模态作为查询来检索 RGB 图像或其他模态。此外,4M-21 还可以组合多种模态来预测全局嵌入,从而更好地控制检索,如右图所示。

图片

开箱即用

4M-21 能够开箱即用地执行一系列常见的视觉任务,如图 6 所示。

图片

表 1 评估了 DIODE 表面法线和深度估计、COCO 语义和实例分割、3DPW  3D 人体姿态估计等。

图片

迁移实验

此外,本文还训练了三种不同尺寸的模型:B、L 和 XL。然后,将其编码器迁移到下游任务,并在单模态 (RGB) 和多模态 (RGB + 深度) 设置上进行评估。所有迁移实验均丢弃解码器,而是训练特定任务的头部。结果如表 2 所示:

图片

最后,本文在 NYUv2、Hypersim 语义分割和 ARKitScenes 上的 3D 对象检测上执行多模态传输。如表 3 所示,4M-21 充分利用了可选的深度输入,并显著改进了基线。

图片

相关资讯

iPhone 内置 Gemini AI?消息称苹果正与谷歌谈判合作

感谢据彭博社报道,知情人士透露,苹果公司就在 iPhone 中内置谷歌 Gemini 人工智能引擎进行谈判,为达成一项将震撼 AI 行业的重磅协议奠定了基础。知情人士表示,两家公司正在积极谈判,以允许谷歌的一套生成人工智能模型 Gemini,为今年苹果 iPhone 软件的一些新功能提供动力。由于讨论是私下进行的,知情人士要求匿名。据知情人士透露,苹果最近还与 OpenAI 进行了讨论,并考虑使用其模型。不过据IT之家此前报道,苹果也在研究自己的 AI 大模型,苹果公司旗下研究团队近日在 ArXiv 中公布了一篇名

消息称苹果研究人员正探索免唤醒词呼叫 Siri,用 AI 聆听取代

感谢据《麻省理工科技评论》报道,当地时间周五(22)日发表的一篇论文显示,苹果公司的研究人员正在探索利用人工智能来检测用户何时在与 iPhone 等设备交谈的可能性,从而消除像“Siri”这样的触发短语的技术需求。在这项上传到 Arxiv 且未经同行评审的研究中,研究人员使用智能手机捕获的语音以及来自背景噪音的声学数据,训练了一个大型语言模型,以寻找“可能表明用户需要设备辅助”的模式。论文中称,该模型部分基于 OpenAI 的 GPT-2 构建,因为它相对轻量级,可以在智能手机等设备上运行。论文还描述了用于训练模型

苹果 AI 战略曝光:简单任务本地处理,复杂任务自研芯片云端运行

感谢彭博社记者马克・古尔曼发文爆料,苹果公司正将其高端芯片(如 M 系列芯片)放在云计算服务器中,这些服务器设计用于处理复杂的 AI 任务,而更简单的 AI 相关功能将直接在 iPhone、iPad 和 Mac 上本地处理。首批 AI 服务器芯片是去年发布的 Mac Pro 和 Mac Studio 上搭载的 M2 Ultra,苹果公司计划之后推出基于 M4 芯片的 AI 服务器。据IT之家此前报道,苹果公司可能正在研发自家的 AI 服务器芯片,采用台积电 3nm 工艺,预估将于 2025 年下半年量产。简单的 A