Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

【新智元导读】GPT-4o 发布不到一周,首个敢于挑战王者的新模型诞生!最近,Meta 团队发布了「混杂模态」Chameleon,可以在单一神经网络无缝处理文本和图象。10 万亿 token 训练的 34B 参数模型本能接近 GPT-4V,刷新 SOTA。GPT-4o 的横空出世,再次创立了一个多模态模型发展的新范式!为什么这么说?OpenAI 将其称为「首个『原生』多模态」模型,意味着 GPT-4o 与以往任何的模型,都不尽相同。传统的多模态基础模型,通常为每种模态采用特定的「编码器」或「解码器」,将不同的模态分

【新智元导读】GPT-4o 发布不到一周,首个敢于挑战王者的新模型诞生!最近,Meta 团队发布了「混杂模态」Chameleon,可以在单一神经网络无缝处理文本和图象。10 万亿 token 训练的 34B 参数模型本能接近 GPT-4V,刷新 SOTA。

GPT-4o 的横空出世,再次创立了一个多模态模型发展的新范式!为什么这么说?

OpenAI 将其称为「首个『原生』多模态」模型,意味着 GPT-4o 与以往任何的模型,都不尽相同。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

传统的多模态基础模型,通常为每种模态采用特定的「编码器」或「解码器」,将不同的模态分离开。

然而,这种方法限制了模型,有效融合跨模态信息的能力。

官博介绍,GPT-4o 是「首个端到端」训练的,跨越文本、视觉和音频的模型,任何的输入和输出,都由单个神经网络处理。

而现在,业界首个敢于挑战 GPT-4o 的模型现身了!

最近,来自 Meta 团队的研究人员发布了「混杂模态基座模型」——Chameleon(变色龙)。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

论文地址:https://arxiv.org/pdf/2405.09818

与 GPT-4o 一样,Chameleon 采用了统一的 Transformer 架构,利用文本、图象和代码混杂模态完成训练。

以类似文本生成的方式,对图象进行离散「分词化」(tokenization),最终生成和推理交织的文本和图象序列。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

这种「早期融合」的方法,任何的 pipeline 从一开始就被映射到一个共同的表示空间,因此模型可以无缝处理文本和图象。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

Chameleon 生成的多模态实质

与此同时,这样的设计,为模型训练带来了重大的技术挑战。

对此,Meta 研究团队引入了一系列架构创新和训练技术。

结果表明,在纯文本义务中,340 亿参数 Chameleon(用 10 万亿多模态 token 训练)的本能和 Gemini-Pro 相当。

在视觉问答和图象标注基准上,刷新 SOTA,本能接近 GPT-4V。

不过,不论是 GPT-4o,还是 Chameleon,都是新一代「原生」端到端的多模态基础模型早期探索。

GTC 2024 大会上,老黄描述了迈向 AGI 最终愿景的重要一步 —— 各种模态互通有无。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

下一个开源 GPT-4o 要来?

Chameleon 的发布,简直就是对 GPT-4o 做出最快的反应。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

有网友表示,token 进,token 出,简直无法去解释。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

甚至还有人称,在 GPT-4o 诞生之后发布得非常扎实的研究,OOS 将迎头赶上。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

不过,目前 Chameleon 模型支持生成的模态,主要是图象文本。缺少了 GPT-4o 中的语音能力。

网友称,然后只需添加另一种模态(音频),扩大训练数据集,「烹饪」一段时间,我们就会得到 GPT-4o…?

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

Meta 的产品管理总监称,「我非常自豪能够给予这个团队支持。让我们朝着让 GPT-4o 更接近开源社区的方向迈进一步」。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

或许用不了多久,我们就得到了一个开源版的 GPT-4o。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

接下来,一起看看 Chameleon 模型的技术细节。

技术架构

Meta 在 Chameleon 的论文中首先表示:很多新近发布的模型依旧没有将「多模态」贯彻到底。

这些模型虽然采用了端到端的训练方式,但仍然单独对不同模态进行建模,利用分开的编码器或解码器。

如开头所述,这种做法限制了模型跨模态信息的能力,也难以生成包含任意形式信息的、真正的多模态文档。

为了改进这种缺陷,Meta 提出了一系列「混杂模态」的基座模型 Chameleon—— 能够生成文本和图象实质任意交织在一起的实质。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

Chameleon 的生成结果,文本和图象交织出现

所谓「混杂模态」基座模型,指 Chameleon 不仅利用了端到端的方式从头开始训练,而且训练时将任何模态的信息交织混杂在一起,并利用统一的架构处理。

如何将任何模态的信息混杂在同一个模型架构中表示?

答案还是「token」。

只要全部表示为 token,就可以把任何模态的信息映射到同一个向量空间中,让 Transformer 无缝处理。

但是,这种做法会带来优化稳定性以及模型扩展性方面的技术挑战。

为了解决这些问题,论文相应地对模型架构进行创新,并利用了一些训练技巧,包括 QK 归一化和 Zloss 等。

同时,论文也提出了将纯文本 LLM 微调为多模态模型的方法。

图象「分词器」

要将任何模态全部表示为 token,首先需要一个强大的分词器。

为此,Chameleon 的团队在 Meta 之前一篇论文的基础上开发了一种新的图象分词器,基于大小为 8192 的 codebook,将规格为 512×512 的图象编码为 1024 个离散的 token。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

文字分词器则基于谷歌开发的 sentencepiece 开源库,训练了一个同时含有 65536 个文本 token 与 8192 个图象 token 的 BPE 分词器。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

预训练

为了彻底激发「混杂模态」的潜力,训练数据也是将不同模态打散、混杂呈现给模型的,既有纯文本、文本-图象对,也有文本、图象交织出现的多模态文档。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

纯文本数据囊括了 Llama 2 和 CodeLlama 所利用的任何预训练数据,共计 2.9 万亿个 token。

文本-图象对包含了一些公开数据,共计 14 亿对、1.5 万亿个 token。

对于文本和图象交织的数据,论文特意强调没有包含来自 Meta 产品的数据,完全利用公开数据来源,整理出共 4000 亿个 token。

Chameleon 的预训练分两个单独的阶段进行,分别占总训练比例的 80% 和 20%。

训练的第一阶段就是让模型以无监督的方式学习以上数据,第二阶段开始时,先将第一阶段得到的权重降低 50%,并混杂更高质量的数据让模型继续学习。

在模型扩展到超过 8B 参数和 1T token 时,训练后期会产生明显的不稳定问题。

由于任何模态共享模型权重,每个模态似乎都有增加 norm 的倾向,与其他模态「竞争」。

这在训练初期不会产生太大的问题,但随着训练的进行、数据超出 bf16 的表达范围时,就会有 loss 发散的现象。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

研究人员将其归因于 softmax 函数所具有的平移不变性,这种现象在单模态模型中也被称为「logit 漂移」(logit drift)。

因此,论文提出了一些架构调整和优化方法来保证稳定性:

-QK 归一化(query-key normalization):将 layer norm 应用于注意力模块中的 query 和 key 向量,从而直接控制 softmax 层输入的 norm 增长。

-在注意力层和前馈层之后引入 dropout

-在损失函数中利用 Zloss 正则化

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

除了数据来源和架构,论文还大方公开了预训练所用的算力规模。

硬件型号为 80GB 内存的英伟达 A100,7B 版本并行利用 1024 个 GPU 训练了约 86 万个 GPU 小时,34B 模型所用的 GPU 数量则扩大了 3 倍,GPU 小时数超过 428 万。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

作为曾经开源 Llama 2 的公司,Meta 的研究团队确实大方,相比连技术报告都没有的 GPT-4o,这篇有数据有干货的论文可谓「仁至义尽」。

全面超越 Llama 2

具体的实验评价中,研究人员将其分为人工评价和安全测试,以及基准评价。

基准评价

Chameleon-34B 利用了比 Llama 2 多四倍的 token 进行训练后,在各种单模态的基准测试中都取得了惊艳的效果。

在纯文本义务生成中,研究人员将预训练(非 SFT)模型的纯文本功能与其他领先的纯文本 LLM 进行比较。

评价实质包括,常识推理、阅读理解、数学问题和世界知识领域,评价结果如下表所示。

– 常识推理和阅读理解

可以观察到,与 Llama 2 相比,Chameleon-7B 和 Chameleon-34B 更具竞争力。甚至,34B 甚至在 5/8 的义务上超过了 Llama-2 70B,本能与 Mixtral-8x7B 相当。

– 数学和世界知识

尽管进行了其他模态的训练,但两个 Chameleon 模型都表现出很强的数学能力。

在 GSM8k 上,Chameleon-7B 的表现优于相应参数规模的 Llama 2 模型,本能与 Mistral-7B 相当。

此外,Chameleon-34B 在 maj@1(61.4 vs 56.8)和 Mixtral-8x7B 在 maj@32 (77.0 vs 75.1)上的表现均优于 Llama 2-70B。

同样,在数学运算中,Chameleon-7B 的本能超过 Llama 2,与 Mistral-7B 在 maj@4 上的本能相当,而 Chameleon-34B 的本能超过 Llama 2-70B,接近 Mixtral-8x7B 在 maj@4 上的本能(24.7 vs 28.4)。

总体而言,Chameleon 的本能全面超过了 Llama 2,在某些义务上接近 Mistral-7B / 8x7B。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

在文本到图象义务中,研究人员具体评测了视觉问答、图象标注两项具体义务。

Chameleon 在视觉问答和图象标注义务中打败 Flamingo 和 Llava-1.5 等模型成为 SOTA,在纯文本义务中也和第一梯队的 Mixtral 8x7B、Gemini Pro 等模型表现相当。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

人工评价和安全测试

同时,为了进一步评价模型生成多模态实质的质量,论文也在基准测试之外引入了人类评价实验,发现 Chameleon-34B 的表现远远超过了 Gemini Pro 和 GPT-4V。

相对于 GPT-4V 和 Gemini Pro,人类评委分别打出了 51.6% 和 60.4 的偏好率。

下图展示了,对于一组多样化的、来自人类标注者的 prompt,Chameleon 与基线模型在理解和生成实质方面的本能对比。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

其中的每个问题,都由三个不同的人类标注回答,并将多数票作为最终答案。

为了了解人类标注者的质量,以及问题的设计是否合理,研究人员还检查了不同标注者之间的一致性程度。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

表 5 是对 20,000 个众包提示和 445 个红队交互进行的安全测试,引发模型产生不安全实质。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

与 Gemini 和 GPT-4V 相比,Chameleon 在处理需要交织、混杂模态响应的提示时,非常有竞争力。

从示例中可以看到,在完成问答义务时,Chameleon 既能理解输入的文本 + 图象,也能为模型输出实质加上合适的「配图」。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

并且,Chameleon 生成的图象通常与上下文相关,这样一来,这种交织实质的输出对用户来说,极具吸引力。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

贡献团队

论文最后,还放上了参与这项研究的贡献者。

包括预训练、对齐和安全、推理和评价、任何项目的参与者。

其中,* 表示共同一作,†表示关键贡献者,‡表示工作流程负责人,♯表示项目负责人。

Meta 首发「变色龙」挑战 GPT-4o,34B 参数引领多模态革命!10 万亿 token 训练刷新 SOTA

参考资料:

https://the-decoder.com/metas-chameleon-ai-model-blends-text-and-images-hinting-at-a-future-gpt-4o-rival/

本文来自微信公众号:新智元 (ID:AI_era)

给TA打赏
共{{data.count}}人
人已打赏
AI

育碧 CEO:将使用 AI 技巧开发更有活力、更丰富的游玩

2024-5-19 18:38:16

AI

消息称苹果首席运营官威廉姆斯访问台积电,探讨 AI 芯片开发

2024-5-20 11:00:56

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索