去年 4 月,威斯康星大学麦迪逊分校、微软研讨院和哥伦比亚大学研讨者共同发布了 LLaVA(Large Language and Vision Assistant)。尽管 LLaVA 是用一个小的多模态指令数据集训练的,却在一些样本上展示了与 GPT-4 非常相似的推理结果。10 月,LLaVA-1.5 重磅发布,通过对原始 LLaVA 的简单修改,在 11 个基准上刷新了 SOTA。
现在,研讨团队宣布推出 LLaVA-1.6,主要矫正了模型在推理、OCR 和世界知识方面的性能。LLaVA-1.6 甚至在多项基准测试中超越了 Gemini Pro。
demo 地址:https://llava.hliu.cc/
项目地址:https://github.com/haotian-liu/LLaVA
与 LLaVA-1.5 相比,LLaVA-1.6 有如下几个矫正:
将输入图象分辨率提升 4 倍,支持三种宽高比,最高可达 672×672、336×1344、1344×336 分辨率。这使得 LLaVA-1.6 能够掌握更多的视觉细节。
通过矫正的视觉指令调整数据混合,LLaVA-1.6 获得了更好的视觉推理和 OCR 才能。
更好的视觉对话,更多场景,覆盖不同应用。LLaVA-1.6 掌握了更多世界知识,具备更好的逻辑推理才能。
运用 SGLang 进行高效部署和推理。
图源:https://twitter.com/imhaotian/status/1752621754273472927
LLaVA-1.6 保持了 LLaVA-1.5 的极简设计和数据效率,它复用了 LLaVA-1.5 的预训练连接器,并且仍然运用不到 1M 的视觉指令调优样本。最大的 34B 模型运用 32 个 A100 在大约 1 天内完成了训练。LLaVA-1.6 运用 130 万个数据样本,计算 / 训练数据成本约为其他方法的 100-1000 分之一。
与 CogVLM 或 Yi-VL 等开源 LMM 相比,LLaVA-1.6 实现了 SOTA 性能。与商用产品相比,LLaVA-1.6 在选定的基准测试中可以媲美 Gemini Pro,并且优于 Qwen-VL-Plus。
值得一提的是,LLaVA-1.6 展现出强大的零样本(zero-shot)中文才能,它在多模态基准 MMBench-CN 上取得了 SOTA 性能。
方法矫正
动态高分辨率
研讨团队以高分辨率设计 LLaVA-1.6 模型,旨在保持其数据效率。当提供高分辨率图象和保留细节的表征时,模型感知图象中复杂细节的才能会显著提高。它减少了面对低分辨率图象时的模型幻觉,即猜测想象的视觉内容。
数据混合
高质量的用户指令数据。该研讨对高质量视觉指令遵循数据的定义取决于两个主要标准:首先,任务指令的多样性,确保充分代表现实场景中可能遇到的广泛用户意图,特别是在模型部署阶段。其次,响应的优先级至关重要,旨在征求有利的用户反馈。
因此,该研讨考虑了两个数据源:
现有的 GPT-V 数据 (LAION-GPT-V 和 ShareGPT-4V);
为了进一步促进更多场景下更好的视觉对话,研讨团队收集了一个涵盖不同应用的小型 15K 视觉指令调优数据集,仔细过滤了可能存在隐私问题或可能有害的样本,并运用 GPT-4V 生成响应。
多模态文档 / 图表数据。(1) 从训练数据中删除 TextCap,因为研讨团队意识到 TextCap 运用与 TextVQA 相同的训练图象集。这使得研讨团队能够在评估 TextVQA 时更好地了解模型的零样本 OCR 才能。为了保持并进一步提高模型的 OCR 才能,该研讨用 DocVQA 和 SynDog-EN 替换了 TextCap。(2) 借助 Qwen-VL-7B-Chat,该研讨进一步添加了 ChartQA、DVQA 和 AI2D,以更好地理解图和图表。
研讨团队还表示除了 Vicuna-1.5(7B 和 13B),还考虑采用更多 LLM 方案,包括 Mistral-7B 和 Nous-Hermes-2-Yi-34B,以使 LLaVA 能够支持更广泛的用户和更多的场景。
参考链接:https://llava-vl.github.io/blog/2024-01-30-llava-1-6/