ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]继Sora官宣之后,多模态大模型在视频生成方面的应用简直就像井喷一样涌现出来,LUMA、Gen-3 Alpha等视频生成模型展现了极佳质量的艺术风格和视频场景的细节雕刻能力,文生视频、图生

ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]

ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

继Sora官宣之后,多模态大模型在视频生成方面的应用简直就像井喷一样涌现出来,LUMA、Gen-3 Alpha等视频生成模型展现了极佳质量的艺术风格和视频场景的细节雕刻能力,文生视频、图生视频的新前沿不断被扩展令大家惊喜不已,抱有期待。

最近,来自中国科学技术大学、北京大学、上海 AI Lab等团队的研究人员发布了引人瞩目的 ShareGPT4Video系列,旨在提升视频懂得和生成能力。

ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

论文链接: https://arxiv.org/abs/2406.04325v1

项目链接:https://sharegpt4video.github.io/

数据集链接:https://huggingface.co/datasets/ShareGPT4Video/ShareGPT4Video

代码链接: https://github.com/ShareGPT4Omni/ShareGPT4Video

Demo链接: https://huggingface.co/spaces/Lin-Chen/ShareCaptioner-Video

在过去半年中,图象-语言多模态领域在ShareGPT4V的高质量图象-字幕数据集的推出后逐渐意识到简略、准确的图象-字幕数据对于对齐图象与语言模态的重要性。ShareGPT4V数据集推出至今已在HuggingFace平台的VQA dataset track上获得了历史第二高的点赞数。

建立在高质量的ShareGPT4V数据集上,图象懂得和图象生成社区也都取得一些突破性的进展,例如InternVL-Chat-V1.5与PixArt-Σ等工作。

ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

受ShareGPT4V数据集在图文多模态领域的成功所鼓舞,原作者团队把目光再次投向视频多模态领域。视频多模态领域中闭源商业模型一直处于断层领先的地位,一方面,OpenAI和谷歌近期接连的两场发布会,把AI视频推理卷到了新高度。另一方面,OpenAI的Sora文生视频模型则把文生视频带到了一个全新的高度。

研究者们认为闭源模型对于视频懂得和视频生成领域的巨大领先同样离不开简略高质量的视频-字幕数据。因此,该研究团队再次致力于为视频获取大量简略而精确的字幕,提升大型视频语言模型的视频懂得能力和文生视频模型的视频生成能力。

目前,该研究在HuggingFace的6月7日Daily Papers中位居榜首,并且在代码公布后迅速获得500+ Star,得到了国内外的一致关注。

ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

研究者们认为用现有的闭源模型生成高质量视频形容的挑战有三个方面:

清晰地懂得帧间的时序变化。

简略准确地形容帧内内容。

对任意长度视频的可扩展性。

为此,研究者们精心设计了一种差分滑窗视频形容(Differential Sliding-Window Captioning, DiffSW)策略,该策略可以稳定且高效地为任意分辨率,宽高比和长度的视频生成高质量形容。

ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

                               图 1:差分滑动窗口视频形容生成

具体而言,研究者们每次送入GPT4V的输入是当前关键帧,上一关键帧以及上一关键帧对应的差分形容,旨在让GPT4V根据观察两帧之间的时间与空间变化总结出当前帧相对于上一帧的重要空间、时序变化,即当前帧与上一帧对应的差分形容。最终,所有差分形容会连同时间戳一起送入GPT4中从而总结出最终的关于整个视频的高质量字幕。

该研究团队展示了几个示例:

Caption 1:

The video segment documented a significant event in Kochi, Kerala, where 2 buildings razed in Kochi. The broadcast began with a split-screen presentation: on one side, thick clouds of dust were seen billowing into the sky, marking the onset of the demolition process, while on the other side, reporter Gopikrishnan provided live coverage, indicated by "BREAKING NEWS" captions and a consistent timestamp of "11:10 AM." The news ticker at the bottom of the screen simultaneously ran other global events, maintaining a flow of information. As the video progresses, the split-screen footage of the razed house turns into a close-up. A notable change in the headline to "KOCHI FLATS RAZED" signaled the demolition's culmination. A brief interlude offered a visual contradiction by showcasing the flats presumably before their demolition, providing a stark before and after comparison. As the video progressed, the left building's collapse initiated a dramatic alteration in the skyline, marked by significant dust plumes. Subsequently, another building was shown partially collapsing amid debris, fully obscured by dust in seconds, with surrounding greenery remaining untouched. This transitioned into a graphic interlude featuring the "India Today" logo, briefly pausing the live footage. Resuming to the aftermath, split imagery displayed the rubble and ongoing smoke. Then, the imagery continued to juxtapose the scenes of destruction against intact high-rise buildings nearby. The narrative was augmented by the revelation that the Supreme Court directed the demolition within a broader national news context. Throughout, the report maintained a real-time approach, threading continuity and urgency across the unfolding event's documentation.ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

Caption 2:

The video begins with an individual seated on a gray couch in a cozy domestic setting, about to unbox a product from a red CCM-branded box placed on a white table in front of them. Initially, the person is seen drinking from a blue can, indicating a casual atmosphere. Soon after, the individual shifts attention from the can to the red box, signifying the start of the unboxing process. The red box, initially closed, gradually becomes the focal point as the person prepares to open it, conveying a build-up of anticipation. As the video progresses, the box is flipped over and then opened, revealing its content still hidden under white tissue paper adorned with prints, adding to the suspense. The individual’s engagement with the box evolves, from initially preparing to open it, to actively delving into its contents. A momentary pause in activity is captured before the anticipation culminates with the individual lifting an object from the box. This object, identifiable by a yellow label, is then examined closely by the person, indicating a thorough inspection or perusal of the product or its packaging. Throughout the video, the surrounding environment remains consistent and undisturbed, with household items like a potted plant and a wall clock maintaining the setting's homely ambiance. The camera’s perspective remains fixed, focusing on the unfolding unboxing event without any movement, thus allowing the viewer to observe the narrative closely. Another partially open brown box is visible beside the main red box, though its role or contents are not elaborated upon. The video encapsulates the anticipation, action, and reveal inherent to unboxing experiences in a home setting.ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

通过这一方法,研究者们推出了大型“视频-文本形容”数据集–ShareGPT4Video数据集,其中包括4万条(共291小时)由GPT-4V标注的视频数据。这些数据涵盖了广泛的类别,生成的形容包含丰富的世界知识,对象属性,摄像机运动,以及简略和精确的事件时间形容。

ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

图 2 :(a)数据集涵盖广泛的内容,包括野生动物、烹饪、体育、风景、第一人称人类活动、自动驾驶场景等。(c) 字幕的字数主要在 200 到 400 之间,提供了丰富的时间信息,可以很好地完成视频懂得和生成任务。

在ShareGPT4Video数据集的基础上,为了进一步扩大数据集规模以及便于开源社区在自有数据上的使用,研究者们进一步设计开发了ShareCaptioner-Video,一个能够有效地为任意视频生成高质量形容的多功能多模态大模型。

ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

图 3:ShareCaptioner-Video 是一款四合一的特殊视频形容模型,具有以下功能:滑动窗口生成视频形容、快速生成视频形容、视频片段对应形容整合,提示词生成简略形容

具体而言,滑窗视频形容功能可以担任GPT4V收集标注数据中的全部角色,并且通过滑窗的方式来产生差分形容并汇总出最终的字幕。快速视频形容功能则是把所有关键帧沿竖直方向拼成一张长图一次性产生最终的字幕,在略微牺牲本能的情况下大幅提升标注速度。视频片段总结功能则可以在对完整视频进行一次滑窗形容后,对其中任意的视频片段直接总结出字幕而不需要再次进行滑窗形容过程。

在得到了优异的视频形容模型后,研究者们用它进一步标注了480万条,总时长3000小时的丰富的视频数据。这些视频具有较高的美学评分以及较少的转场效果,旨在为视频生成任务服务。

ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

                             表1:由 ShareCaptioner-Video 标注的480万条视频数据的构成

实验

在视频懂得方面,研究者们首先通过简单的等量替换实验,验证了ShareGPT4Video数据集在几种当前LVLM架构上的有效性。研究者们把VideoChatGPT数据集中100K视频训练数据中的与简略caption相关的28K数据等量替换成ShareGPT4Video数据集中的子集。从下表可以看到,通过简单的数据替换,仅仅是字幕数据质量上的提升便可以一致地为不同架构、不同规模的视频懂得多模态大模型带来显著的本能增益。

ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

                               表 2:ShareGPT4Video数据集在各模型架构上均能产生本能增益

之后,研究者们自主收集了153K的视频VQA数据,并结合ShareGPT4Video数据集中与视频懂得相关的28K高质量字幕数据,提出了新的LVLM ShareGPT4Video-8B。仅需8卡以及5个小时的训练开销,即可在多项Benchmark上取得优异的结果。

ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

                              表 3 :TempCompass上本能比照

ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

                               表 4 :VideoBench上本能比照

ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

                             表 5:MVBench上本能比照

即使是在最近新出现的几个视频懂得基准上,ShareGPT4Video-8B也可以在7B参数规模上一致地展现出具有竞争力的本能。

ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

                               表 6 :LongVideoBench上本能比照

ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

                                 表 7 :Video-MME基准本能比照

ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

                                   表 8:MMBench-Video基准本能比照

在视频生成方面,研究者们基于Open-Sora-Plan项目简单直接地验证了简略的字幕数据对于文生视频模型的帮助。下图中,第一行的结果是使用了短字幕数据训练出的文生视频模型得到的,第二行的结果是使用了ShareCaptioner-Video标注的高质量字幕数据训练出的文生视频模型得到的。可以看到,使用简略的字幕数据可以让文生视频模型具备优异的镜头移动控制以及语义内容控制能力。

ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力ShareGPT4V作者团队又一力作!百万高质量视频-字幕数据助力社区提升多模态大模型视频懂得及生成能力

参考链接:

【1】Open-Sora-Plan:https://github.com/PKU-YuanGroup/Open-Sora-Plan

【2】LongVideoBench:https://longvideobench.github.io/

【3】Video-MME:https://video-mme.github.io/

【4】MMBench-Video:https://github.com/open-compass/MMBench-Video

给TA打赏
共{{data.count}}人
人已打赏
工程

ICLR 2024 Oral | 应对随时候变化的分散偏移,西安大略大学等提出学习时序轨迹要领

2024-6-19 15:06:00

工程

从高考到奥林匹克竞技场:大模型与人类智能的终极较量

2024-6-20 15:29:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索