AI在线 AI在线

AI “看图说话” 更懂细节!腾讯开源多模态理解技术HaploVL

作者:AI在线
2025-03-27 05:36
3月27日,腾讯开源团队宣布推出了一项创新的多模态理解技术——HaploVL。 这一技术旨在通过单个Transformer架构实现高效的多模态融合,显著提升AI在视觉和语言交互中的表现,特别是在细粒度视觉理解任务上。 在人工智能领域,多模态大模型(LMMs)近年来迅速崛起,它们能够实现复杂的视觉-语言对话和交互。

3月27日,腾讯开源团队宣布推出了一项创新的多模态理解技术——HaploVL。这一技术旨在通过单个Transformer架构实现高效的多模态融合,显著提升AI在视觉和语言交互中的表现,特别是在细粒度视觉理解任务上。

在人工智能领域,多模态大模型(LMMs)近年来迅速崛起,它们能够实现复杂的视觉-语言对话和交互。然而,现有的多模态模型大多采用“视觉编码器 + 大语言模型”的组合架构,这种架构虽然有效,但在处理细粒度任务时存在不足。例如,预训练的视觉编码器(如CLIP)可能会忽略图像中的关键细节,如物体颜色或小目标位置,导致模型在某些任务上的表现不佳。此外,现有的统一架构模型(如Fuyu)虽然简化了流程,但需要大量的数据和计算资源来训练,且性能仍落后于组合式模型。

HaploVL的出现正是为了解决这些问题。它采用单Transformer架构,通过动态融合文本和视觉信息,让文本嵌入能够“捕捉”所需的视觉线索,同时显著减少了训练数据的需求。在性能上,HaploVL不仅能够与现有的组合式模型相媲美,还在细粒度视觉理解任务上表现出色。

微信截图_20250327173627.png

HaploVL的架构设计充满巧思。它通过多模态嵌入层直接对图像和文本进行编码,并在模型前端设置了一个预解码器(视觉知识引擎),用于动态融合图文信息。这一设计类似于“雷达”,能够扫描图像中的细节,并捕捉图像内部的关联和多图之间的时序关系。后解码器(语言生成引擎)则基于融合后的特征生成自然语言回复,继承了大语言模型的语言能力,能够快速学习多模态关联并生成逻辑连贯的回答。

HaploVL的训练方法也颇具创新性。它采用了两阶段训练方法,首先在预训练阶段对模型进行初始化,然后在微调阶段对特定任务进行优化。这种训练方式不仅提高了模型的泛化能力,还减少了对大规模数据集的依赖。

在实验中,HaploVL在多项多模态基准测试中展现出优异的性能,尤其是在细粒度视觉理解任务上。例如,在边缘物体感知和推理任务中,HaploVL能够准确识别图像中的高亮区域,并生成与之相关的自然语言描述。这一能力在实际应用中具有重要意义,例如在自动驾驶、智能安防等领域,细粒度视觉理解能够帮助系统更准确地感知环境并做出决策。

Code: https://github.com/Tencent/HaploVLM

Arxiv: https://arxiv.org/abs/2503.14694

相关资讯

FG2024Workshop |花样滑冰人体动作识别挑战赛与研讨会启动!

作为计算机视觉的国际重要会议之一,CCF C类国际会议FG 2024 (International Conference on Automatic Face and Gesture Recognition)将于2024年5月28-31日举办。花样滑冰人体动作识别挑战赛将作为花样滑冰人体动作识别研讨会的一部分与FG2024一起举办。背景计算机视觉中的人体行为理解主要关注于在视频中定位、分类和评估人类行为。然而,目前的任务对于细粒度动作分割和评估等实际应用来说是不足够的。为了解决这个问题,我们构建了一个数据集Skati
3/21/2024 2:14:00 PM
新闻助手

华科字节推出 Liquid:重新定义多模态模型的生成与理解

近年来,大语言模型(LLM)在人工智能领域取得了显著进展,尤其是在多模态融合方面。 华中科技大学、字节跳动与香港大学的联合团队最近提出了一种新型的多模态生成框架 ——Liquid,旨在解决当前主流多模态模型在视觉处理上的局限性。 传统的多模态大模型依赖复杂的外部视觉模块,这不仅增加了系统的复杂性,还限制了其扩展性。
3/4/2025 9:41:00 AM
AI在线

微软发布 Phi-4 多模态与迷你模型,语音视觉文本处理再升级

近日,微软进一步扩展了 Phi-4家族,推出了两款新模型:Phi-4多模态(Phi-4-multimodal)和 Phi-4迷你(Phi-4-mini),这两款模型的亮相,无疑将为各类 AI 应用提供更加强大的处理能力。 Phi-4多模态模型是微软首款集成语音、视觉和文本处理的统一架构模型,拥有5600万参数。 这款模型在多项基准测试中表现优异,超越了目前市场上的许多竞争对手,例如谷歌的 Gemini2.0系列。
2/27/2025 9:38:00 AM
AI在线