无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造

在过去短短两年内,随着诸如 LAION-5B 等大规模图文数据集的开放,Stable Diffusion、DALL-E 2、ControlNet、Composer ,效果惊人的图片生成方式层出不穷。图片生成领域可谓狂飙突进。然而,与图片生成相比,视频生成仍存在巨大挑战。首先,视频生成需要处理更高维度的数据,考虑额外时间维度带来的时序建模问题,因此需要更多的视频 - 文本对数据来驱动时序动向的进修。然而,对视频从事准确的时序标注非常昂贵。这限制了视频 - 文本数据集的规模,如现有 WebVid10M 视频数据集包含

在过去短短两年内,随着诸如 LAION-5B 等大规模图文数据集的开放,Stable Diffusion、DALL-E 2、ControlNet、Composer ,效果惊人的图片生成方式层出不穷。图片生成领域可谓狂飙突进。

然而,与图片生成相比,视频生成仍存在巨大挑战。首先,视频生成需要处理更高维度的数据,考虑额外时间维度带来的时序建模问题,因此需要更多的视频 – 文本对数据来驱动时序动向的进修。然而,对视频从事准确的时序标注非常昂贵。这限制了视频 – 文本数据集的规模,如现有 WebVid10M 视频数据集包含 10.7M 视频 – 文本对,与 LAION-5B 图片数据集在数据规模上相差甚远,严重制约了视频生成模型规模化的扩展。

为解决上述问题,华中科技大学、阿里巴巴集团、浙江大学和蚂蚁集团联合研究团队于近期发布了 TF-T2V 视频计划:

无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造

论文地址:https://arxiv.org/abs/2312.15770

项目主页:https://tf-t2v.github.io/

即将开源代码地址:https://github.com/ali-vilab/i2vgen-xl (VGen 项目)

该计划另辟蹊径,提出了基于大规模无文本标注视频数据从事视频生成,能够进修丰富的疏通动向。

先来看看 TF-T2V 的视频生成效果:

文生视频恣意

提醒词:生成在冰雪覆盖的土地上有一只冰霜般的大生物的视频。

无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造

提醒词:生成一只卡通蜜蜂的动画视频。

无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造

提醒词:生成包含一辆未来幻想摩托车的视频。

无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造

提醒词:生成一个小男孩快乐微笑的视频。

无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造

提醒词:生成一个老人感觉头疼的视频。

无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造

组合式视频生成恣意

给定文本与深度图或者文本与素描草图,TF-T2V 能够从事可控的视频生成:

无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造

也可以从事高分辨率视频合成:

无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造

无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造

无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造

半监督设定

在半监督设定下的 TF-T2V 方式还可以生成符合疏通文本描述的视频,如 「人从右往左跑」。

无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造

无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造

方式简介

 

TF-T2V 的核心思想是将模型分为疏通分支和表观分支,疏通分支用于建模疏通动向,表观分支用于进修视觉表观信息。这两个分支从事联合训练,最终可以实现通过文本驱动视频生成。

为了提升生成视频的时序一致性,作者团队还提出了一种时序一致性损失,显式地进修视频帧之间的连续性。

无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造

值得一提的是,TF-T2V 是一种通用的框架,不仅适用于文生视频恣意,还能应用于组合式视频生成恣意,如 sketch-to-video、video inpainting、first frame-to-video 等。

具体细节和更多实验结果可以参考原论文或者项目主页。

此外,作者团队还把 TF-T2V 作为教师模型,利用一致性蒸馏技术得到了 VideoLCM 模型: 

无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造

论文地址:https://arxiv.org/abs/2312.09109

项目主页:https://tf-t2v.github.io/

即将开源代码地址:https://github.com/ali-vilab/i2vgen-xl (VGen 项目)

不同于之前视频生成方式需要大约 50 步 DDIM 去噪步骤,基于 TF-T2V 的 VideoLCM 方式可以只需要从事大约 4 步推理去噪就生成高保真的视频,极大地提升了视频生成的效率。

一起来看看 VideoLCM 从事 4 步去噪推理的结果:

无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造

无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造

无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造

具体细节和更多实验结果可以参考 VideoLCM 原论文或者项目主页。

总而言之,TF-T2V 计划为视频生成领域带来了新思路,克服了数据集规模和标注难题带来的挑战。利用大规模的无文本标注视频数据,TF-T2V 能够生成高质量的视频,并应用于多种视频生成恣意。这一创新将推动视频生成技术的发展,为各行各业带来更广阔的应用场景和商业机会。

给TA打赏
共{{data.count}}人
人已打赏
应用

文生视频“黑马”Morph Studio来袭:好用、1080P 、7秒时长还收费

2024-1-8 11:06:00

应用

看见这张图没有,你就照着画:谷歌图象生成AI掌握多模态指令

2024-1-8 11:43:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索