华科字节推出 Liquid:重新定义多模态模型的生成与理解

近年来,大语言模型(LLM)在人工智能领域取得了显著进展,尤其是在多模态融合方面。 华中科技大学、字节跳动与香港大学的联合团队最近提出了一种新型的多模态生成框架 ——Liquid,旨在解决当前主流多模态模型在视觉处理上的局限性。 传统的多模态大模型依赖复杂的外部视觉模块,这不仅增加了系统的复杂性,还限制了其扩展性。

近年来,大语言模型(LLM)在人工智能领域取得了显著进展,尤其是在多模态融合方面。华中科技大学、字节跳动与香港大学的联合团队最近提出了一种新型的多模态生成框架 ——Liquid,旨在解决当前主流多模态模型在视觉处理上的局限性。

image.png

传统的多模态大模型依赖复杂的外部视觉模块,这不仅增加了系统的复杂性,还限制了其扩展性。Liquid 的创新之处在于,它采用 VQGAN 作为图像分词器,摒弃了对外部视觉组件的依赖,通过将图像编码为离散的视觉 token,使得模型可以直接与文本 token 共享词表,从而实现 “原生” 的视觉理解与生成能力。

image.png

研究发现,Liquid 不仅能够降低训练成本,还揭示了多模态能力与 LLM 的尺度规律。团队在不同规模(从0.5B 到32B)的 LLM 上进行了实验,结果显示,随着模型规模的扩大,其视觉生成任务的性能和生成质量均遵循与语言任务一致的缩放规律。更令人振奋的是,视觉理解与生成任务之间存在双向促进的关系,即两者可以通过共享的表示空间实现联合优化。

Liquid 的设计充分体现了极简主义,它将图像与文本一视同仁,采用统一的处理框架。在构建过程中,研究团队利用30M 的文本数据和30M 的图文对数据,为模型的多模态训练奠定了基础。最终的实验结果表明,Liquid 在多模态理解、图像生成及纯文本任务中都表现出了优越的性能,其生成的图像与文本之间的语义一致性显著高于其他自回归模型。

Liquid 的提出为通用多模态智能的架构设计提供了新思路,预示着人工智能在多模态融合的未来可能会迎来更加高效和灵活的进化。

论文链接:https://arxiv.org/pdf/2412.04332

相关资讯

MIT顶尖机器人学家创业,融资数千万,受线虫启发开发液态网络,叫板OpenAI

机器之能报道编辑:吴昕MIT 计算机科学和人工智能实验室 CSAIL 孵化的创业公司—— Liquid AI 终于结束隐身模式,公开与 OpenAI 和其他公司的大型语言模型竞争。近日,Liquid AI 官宣已筹集 3750 万美元。就种子轮而言,这个数字相当可观。投资人不乏一些大人物,比如 GitHub 联合创始人 Tom Preston Werner、Shopify 联合创始人 Tobias Lütke 和 Red Hat 联合创始人 Bob Young。融资后,公司估值 3.03 亿美元。著名机器人学家和计

给机器人装上「虫脑」?非Transformer液态神经网络终于来了!MIT CSAIL负责人创业成果

在大模型时代,谷歌 2017 年开创性论文《Attention Is All You Need》中提出的 Transformer 已经成为主流架构。然而,刚刚一家由 MIT 计算机科学与人工智能实验室 (CSAIL) 前研究人员共同创立的初创公司 Liquid AI 却走出了不一样的路线。Liquid AI 表示他们的目标是「探索构建超越生成式预训练 Transformer (GPT) 基础模型的方法」。为了实现这一目标,Liquid AI 推出了其首批多模态 AI 模型:Liquid Foundation Mod

非 Transformer 架构 AI 模型 Liquid 问世,号称性能“凌驾 Meta Llama / 微软 Phi”

去年刚成立的 Liquid AI 公司于 9 月 30 日发布了三款 Liquid 基础模型(Liquid Foundation Models,LFM),分别为 LFM-1.3B、LFM-3.1B 和 LFM-40.3B。这些模型均采用非 Transformer 架构,号称在基准测试中凌驾同规模的 Transformer 模型。AI在线注意到,目前业界在深度学习和自然语言处理方面主要使用 Transformer 架构,该架构主要利用自注意力机制捕捉序列中单词之间的关系,包括 OpenAI 的 GPT、Meta 的