AI 视频生成,是最近最热门的领域之一。各个高校实验室、互联网巨头 AI Lab、创业公司纷纷加入了 AI 视频生成的赛道。Pika、Gen-2、Show-1、VideoCrafter、ModelScope、SEINE、LaVie、VideoLDM 等视频生成模型的发布,更是让人眼前一亮。v⁽ⁱ⁾
大家肯定对以下几个问题感到好奇:
到底哪个视频生成模型最牛?
每个模型有什么特长?
AI 视频生成领域目前还有哪些值得关注的问题待解决?
为此,我们推出了 VBench,一个全面的「视频生成模型的评测框架」,来告诉你 「视频模型哪家强,各家模型强在哪」。
论文:https://arxiv.org/abs/2311.17982
代码:https://github.com/Vchitect/VBench
网页:https://vchitect.github.io/VBench-project/
论文标题:VBench: Comprehensive Benchmark Suite for Video Generative Models
VBench 不光能全面、细致地评估视频生成的效果,而且还特别符合人们的感官体验,能省下一大堆评估的时间和精力。
VBench 包含 16 个分层和解耦的评测维度
VBench 开源了用于文生视频生成评测的 Prompt List 体系
VBench 每个维度的评测方案与人类的观感与评价对齐
VBench 提供了多视角的洞察,助力未来对于 AI 视频生成的探索
AI 视频生成模型 – 评测结果
已开源的 AI 视频生成模型
各个开源的 AI 视频生成模型在 VBench 上的表示如下。
各家已开源的 AI 视频生成模型在 VBench 上的表示。在雷达图中,为了更清晰地可视化比较,我们将每个维度的评测结果归一化到了 0.3 与 0.8 之间。
各家已开源的 AI 视频生成模型在 VBench 上的表示。
在以上 6 个模型中,可以看到 VideoCrafter-1.0 和 Show-1 在大多数维度都有相对优势。
创业公司的视频生成模型
VBench 目前给出了 Gen-2 和 Pika 这两家创业公司模型的评测结果。
Gen-2 和 Pika 在 VBench 上的表示。在雷达图中,为了更清晰地可视化比较,我们加入了 VideoCrafter-1.0 和 Show-1 作为参考,同时将每个维度的评测结果归一化到了 0.3 与 0.8 之间。
Gen-2 和 Pika 在 VBench 上的表示。我们加入了 VideoCrafter-1.0 和 Show-1 的数值结果作为参考。
可以看到,Gen-2 和 Pika 在视频品质(Video Quality)上有明显优势,例如时序一致性(Temporal Consistency)和单帧品质(Aesthetic Quality 和 Imaging Quality)相关维度。在与用户输入的 prompt 的语义一致性上(例如 Human Action 和 Appearance Style),部分维度开源模型会更胜一筹。
视频生成模型 VS 图片生成模型
视频生成模型 VS 图片生成模型。其中 SD1.4,SD2.1 和 SDXL 是图片生成模型。
视频生成模型在 8 大场景种别上的表示
下面是分别模型在 8 个分别种别上的评测结果。
VBench 现已开源,一键即可安装
目前,VBench 已全面开源,且支持一键安装。欢迎大家来玩,测试一下感兴趣的模型,一起推动视频生成社区的发展。
开源地址:https://github.com/Vchitect/VBench
我们也开源了一系列 Prompt List:https://github.com/Vchitect/VBench/tree/master/prompts,包含在分别能力维度上用于评测的 Benchmark,以及在分别场景内容上的评测 Benchmark。
左边词云展示了我们 Prompt Suites 的高频词分布,右图展示了分别维度和种别的 prompt 数量统计。
VBench 准不准?
针对每个维度,我们计算了 VBench 评测结果与人工评测结果之间的相关度,进而验证我们方法与人类观感的一致性。下图中,横轴代表分别维度的人工评测结果,纵轴则展示了 VBench 方法自动评测的结果,可以看到我们方法在各个维度都与人类感知高度对齐。
VBench 带给 AI 视频生成的思考
VBench 不仅可以对现有模型进行评测,更重要的是,还可以发现分别模型中可能存在的各种问题,为未来 AI 视频生成的发展提供有价值的 insights。
「时序连贯性」以及「视频的动态程度」:不要二选一,而应同时晋升
我们发现时序连贯性(例如 Subject Consistency、Background Consistency、Motion Smoothness)与视频中运动的幅度(Dynamic Degree)之间有一定的权衡关系。比如说,Show-1 和 VideoCrafter-1.0 在背景一致性和动作流畅度方面表示很好,但在动态程度方面得分较低;这可能是因为生成 「没有动起来」 的画面更容易显得 「在时序上很连贯」。另一方面,VideoCrafter-0.9 在与时序一致性的维度上弱一些,但在 Dynamic Degree 上得分很高。
这说明,同时做好 「时序连贯性」 和 「较高的动态程度」 确实挺难的;未来不应只关注其中一方面的晋升,而应该同时晋升 「时序连贯性」 以及 「视频的动态程度」 这两方面,这才是有意义的。
分场景内容进行评测,发掘各家模型潜力
有些模型在分别种别上表示出的性能存在较大差异,比如在美学品质(Aesthetic Quality)上,CogVideo 在 「Food」 种别上表示不错,而在 「LifeStyle」 种别得分较低。如果通过训练数据的调整,CogVideo 在 「LifeStyle」 这些种别上的美学品质是否可以晋升上去,进而晋升模型整体的视频美学品质?
这也告诉我们,在评估视频生成模型时,需要考虑模型在分别种别或主题下的表示,挖掘模型在某个能力维度的上限,进而针对性地晋升 「拖后腿」 的场景种别。
有复杂运动的种别:时空表示都不佳
在空间上复杂度高的种别,在美学品质维度得分都比较低。例如,「LifeStyle」 种别对复杂元素在空间中的布局有比较高的要求,「Human」 种别由于铰链式结构的生成带来了挑战。
对于时序复杂的种别,比如 「Human」 种别通常涉及复杂的动作、「Vehicle」 种别会经常出现较快的移动,它们在所有测试的维度上得分都相对较低。这表明当前模型在处理时序建模方面仍然存在一定的不足,时序上的建模局限可能会导致空间上的模糊与扭曲,从而导致视频在时间和空间上的品质都不理想。
难生成的种别:晋升数据量收益不大
我们对常用的视频数据集 WebVid-10M 进行了统计,发现其中约有 26% 的数据与 「Human」 有关,在我们统计的八个种别中占比最高。然而,在评估结果中,「Human」 种别却是八个种别中表示最差的之一。
这说明对于 「Human」 这样复杂的种别,仅仅增加数据量可能不会对性能带来显著的改善。一种潜在的方法是通过引入 「Human」 相关的先验知识或控制,比如 Skeletons 等,来指导模型的学习。
百万量级的数据集:晋升数据品质优先于数据量
「Food」 种别虽然在 WebVid-10M 中仅占据 11%,但在评测中几乎总是拥有最高的美学品质分数。于是我们进一步分析了 WebVid-10M 数据集分别种别内容的美学品质表示,发现 「Food」 种别在 WebVid-10M 中也有最高的美学评分。
这意味着,在百万量级数据的基础上,筛选 / 晋升数据品质比增加数据量更有帮助。
待晋升的能力:准确生成生成多物体,以及物体间的关系
当前的视频生成模型在 「多对象生成」(Multiple Objects)和 「空间关系」(Spatial Relationship)方面还是追不上图片生成模型(尤其是 SDXL),这凸显了晋升组合能力的重要性。所谓组合能力指的是模型在视频生成中是否能准确展示多个对象,及它们之间的空间及互动关系。
解决这一问题的潜在方法可能包括:
数据打标:构建视频数据集,提供对视频中多个物体的明确描述,以及物体间空间位置关系以及互动关系的描述。
在视频生成过程中添加中间模态 / 模块来辅助控制物体的组合和空间位置关系。
使用更好的文本编码器(Text Encoder)也会对模型的组合生成能力有比较大的影响。
曲线救国:将 T2V 做不好的 「物体组合」 问题交给 T2I,通过 T2I+I2V 的方式来生成视频。这一做法针对其他很多视频生成中的问题或许也有效。