视频生成新突破:PixelDance,轻松呈现复杂行动与炫酷殊效

AI 生成的视频终于能动了。最近,除了大语言模型继续持续刷屏,视频生成技术也取得了重大进展,多家公司相继发布了新模型。首先,作为最早探索视频生成领域的领头羊之一,Runway 升级了其 Gen-2 模型,带来了电影级别的高清晰度,令人瞩目,并称视频生成的一致性得到了重大改进。但是,这种一致性的提升似乎是以牺牲视频动态性为代价的。从 Gen-2 的官方宣传视频中可以看出,尽管集合了多个短片断,但每个片断的动态性相对较弱,难以捕捉到人物、动物或物体的清晰行动和运动。近期,Meta 也发布了视频生成模型 Emu Vide

AI 生成的视频终于能动了。

最近,除了大语言模型继续持续刷屏,视频生成技术也取得了重大进展,多家公司相继发布了新模型。

首先,作为最早探索视频生成领域的领头羊之一,Runway 升级了其 Gen-2 模型,带来了电影级别的高清晰度,令人瞩目,并称视频生成的一致性得到了重大改进。

但是,这种一致性的提升似乎是以牺牲视频动态性为代价的。从 Gen-2 的官方宣传视频中可以看出,尽管集合了多个短片断,但每个片断的动态性相对较弱,难以捕捉到人物、动物或物体的清晰行动和运动。

近期,Meta 也发布了视频生成模型 Emu Video。从 Emu Video 的官方示例中可以看出,其视频的动态性比 Gen-2 有明显提高,但仍然局限于较为简单的行动。

视频生成新突破:PixelDance,轻松呈现复杂行动与炫酷殊效

开发出了经典的文生图模型 Stable Diffusion 的公司 Stability.ai,也于近日发布了开源视频生成模型 Stable Video Diffusion (SVD),引发了开源社区的大量关注和讨论。SVD 后果能和 Gen-2 相当,通过测试样例能看出 SVD 生成的视频也相对缺少动态性。

视频生成新突破:PixelDance,轻松呈现复杂行动与炫酷殊效

                                  SVD 论文里面提到了暂时 SVD 生成的视频存在动态性不足的情况。

上述示例表明,生成有高度一致性且有丰厚动态性的视频,让视频内容真正地动起来,是暂时视频生成领域中的最大挑战

在这方面,最新的研究成果 PixelDance 迈出了关键性的一步,其生成结果的动态性显著优于暂时现有的其它模型,引起了业界的关注。

视频生成新突破:PixelDance,轻松呈现复杂行动与炫酷殊效

                                       Twitter知名AI博主@_akhaliq转发的PixelDance新闻已有近8万浏览量。

视频生成新突破:PixelDance,轻松呈现复杂行动与炫酷殊效

视频生成新突破:PixelDance,轻松呈现复杂行动与炫酷殊效

视频生成新突破:PixelDance,轻松呈现复杂行动与炫酷殊效

在官网(https://makepixelsdance.github.io)中,PixelDance 给出了两种不同的视频生成形式。

第一种是基础形式(Basic Mode),用户只需要供给一张领导图片+文本描写,PixelDance 就可以生成有高度一致性且有丰厚动态性的视频,其中领导图片可以是真实图片,也可以利用现有的文生图模型生成。

从展现的结果来看,真实格调、动画格调、二次元格调、魔幻格调,PixelDance 通通都可以解决,人物行动、脸部表情、相机视角控制、殊效行动,Pixeldance 也都可以很好的完成。只能说一句 tql!

视频生成新突破:PixelDance,轻松呈现复杂行动与炫酷殊效

第二种是高级魔法形式(Magic Mode),给了用户更多发挥想象力和创造力的空间。在这种形式下,用户需要供给两张领导图片+文本描写,可以更好地生成更有难度的视频内容。网站中展现了用魔法形式做出的各种炫酷殊效镜头。

视频生成新突破:PixelDance,轻松呈现复杂行动与炫酷殊效

除此之外,官网还展现了完全使用 PixelDance 制作的 3 分钟故事短片:

视频生成新突破:PixelDance,轻松呈现复杂行动与炫酷殊效

非常震撼的一点是,使用 PixelDance 能按照用户预想的一个故事,制作每一个场景和对应的行动。不管是真实场景(如埃及、长城等),还是虚幻场景(如外星球),PixelDance 都能生成细节丰厚、行动丰厚的视频,甚至各种殊效镜头也不在话下。

并且,主人公北极熊先生的黑色礼帽和红色领结形象,在不同的场景中都得到了很好的保持。长视频生成再也不是简单的拼凑弱相关的短视频片断了!

而达到这样拔群的视频生成后果,并没有依赖复杂的数据集和大规模的模型训练,PixelDance 在公开的 WebVid-10M 数据集上仅用 1.5B 大小的模型就达到了上述后果。

视频生成新突破:PixelDance,轻松呈现复杂行动与炫酷殊效

论文地址:https://arxiv.org/abs/2311.10982

demo 地址:https://makepixelsdance.github.io

在相应的论文《Make Pixels Dance: High-Dynamic Video Generation》中,作者指出了视频生成难以做出好后果的原因:相比于图片生成,视频生成具有特征空间显著更大、行动多样性显著更强的特点。这就导致了现有的视频生成方法难以学到有效的时域行动信息,生成的视频虽然图片质量较高,但动态性非常有限。

针对上述问题,PixelDance 提出了基于文本领导 + 首尾帧图片领导的视频生成方法,使得模型更充分地关注和学习视频的动态信息。

其中,首帧图片领导为整个视频内容供给了框架和素材。此外,通过将上一个视频片断的尾帧拿来作为下一个视频片断的首帧领导,可以生成更长的视频。文本描写供给了对视频行动的描写。尾帧图片领导为视频生成过程供给了结束状态的信息。作者提出了适配的方法,使得模型能接收比较粗糙的图片作为领导,这使得用户可以使用基本的图片编辑工具获得尾帧图片领导。

官网的信息显示,暂时还在积极地迭代模型后果中,未来 2-3 个月内就会放出人人可以试用的模型。暂时,作者也供给了途径支持大家发送想要测试的样例,暂时官网中已经放出了一些用户的测试样例:

视频生成新突破:PixelDance,轻松呈现复杂行动与炫酷殊效

如此看来,有了 PixelDance,只要有天马行空的想象力,人人都可以成为「百万殊效大师」!

给TA打赏
共{{data.count}}人
人已打赏
应用

留给google的时间不多了:18年老职工辞职炮轰领导层

2023-11-24 15:09:00

应用

外媒:英伟达特供芯片H20推延至明年一季度宣布

2023-11-27 10:59:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索