超10秒高分辨率,北大Open Sora视频生成更强了,还支持华为芯片

北大团队联合兔展发起的 Sora 复现计划,现在有了新成果。OpenAI 在今年年初扔出一项重大研究,Sora 将视频生成带入一个新的高度,很多人表示,现在的 OpenAI 一出手就是王炸。然而,众多周知的是,OpenAI 一向并不 Open,关于 Sora 的更多细节我们无从得知。谁能率先发布类 Sora 研究成了一个热门话题。今年 3 月初,北大团队联合兔展启动了 Sora 复现计划 ——Open Sora Plan,该项目希望通过开源社区的力量复现 Sora。项目上线一个月,星标量已经达到 6.6k。项目地址

北大团队联合兔展发起的 Sora 复现计划,现在有了新成果。

OpenAI 在今年年初扔出一项重大研究,Sora 将视频生成带入一个新的高度,很多人表示,现在的 OpenAI 一出手就是王炸。然而,众多周知的是,OpenAI 一向并不 Open,关于 Sora 的更多细节我们无从得知。谁能率先发布类 Sora 研究成了一个热门话题。

今年 3 月初,北大团队联合兔展启动了 Sora 复现计划 ——Open Sora Plan,该项目希望通过开源社区的力量复现 Sora。

图片

项目上线一个月,星标量已经达到 6.6k。

图片

项目地址:https://github.com/PKU-YuanGroup/Open-Sora-Plan

技术报告:https://github.com/PKU-YuanGroup/Open-Sora-Plan/blob/main/docs/Report-v1.0.0.md

现在这个项目终于有了新成果,Open-Sora-Plan v1.0.0 来了,新研究显著增强了视频生成的质量以及对文本的控制能力。研究者表示,他们正在训练更高分辨率(>1024)以及更长时间(>10s)的视频。目前该项目已支持国产 AI 芯片(华为昇腾 910b)进行推理,下一步将支持国产算力训练。

项目作者林彬表示:Open-Sora-Plan v1.0.0 可以生成1024×1024分辨率视频,也能生成10 秒、24 FPS 的高清视频。而且它还能够生成高分辨率图像。

图片

下面我们看一下 v1.0.0 的效果(为了展示,动图进行了一些压缩,会损失一些质量)。

文本到视频生成

提示:海上的日落。超10秒高分辨率,北大Open Sora视频生成更强了,还支持华为芯片提示:黎明时分,宁静的海滩,海浪轻轻拍打着海岸,天空被涂上柔和的色调...... 超10秒高分辨率,北大Open Sora视频生成更强了,还支持华为芯片

提示:沿海景观从日出到黄昏过渡的延时拍摄……

图片

文本到视频生成的更多效果展示:超10秒高分辨率,北大Open Sora视频生成更强了,还支持华为芯片

文本到图像生成(512×512 )

图片

视频重建(720×1280)超10秒高分辨率,北大Open Sora视频生成更强了,还支持华为芯片超10秒高分辨率,北大Open Sora视频生成更强了,还支持华为芯片

图像重建(1536×1024):

图片

在实现细节方面,通过团队放出的技术报告,我们得知模型架构 CausalVideoVAE 概览图如下所示:

图片

CausalVideoVAE 架构继承自 Stable-Diffusion Image VAE。为了保证 Image VAE 的预训练权重能够无缝应用到 Video VAE 中,模型结构设计如下:

CausalConv3D:将 Conv2D 转换为 CausalConv3D,可以实现图像和视频数据的联合训练。CausalConv3D 对第一帧进行特殊处理,因为它无法访问后续帧。

初始化:Conv2D 扩展到 Conv3D 常用的方法有两种:平均初始化和中心初始化。但本文采用了特定的初始化方法 tail 初始化。这种初始化方法确保模型无需任何训练就能够直接重建图像,甚至视频。

训练细节:

图片

上图展示了 17×256×256 下两种不同初始化方法的损失曲线。黄色曲线代表使用 tail init 损失,而蓝色曲线对应中心初始化损失。如图所示,tail 初始化在损失曲线上表现出更好的性能。此外,该研究发现中心初始化会导致错误累积,导致在长时间内崩溃。

训练扩散模型。与之前的工作类似,该研究采用了多阶段级联训练方法,总共消耗了 2048 A800 GPU 小时。研究发现,图像联合训练显着加速了模型收敛并增强了视觉感知,这与 Latte 的研究结果一致。

图片

不过,目前发布的 CausalVideoVAE(v1.0.0)有两个主要缺点:运动模糊和网格效果。团队正在改进这些缺点,后续版本很快就会上线。

最后附上团队完整名单:

图片

相关资讯

Science出台新政,旗下部分期刊论文立即免费,无需作者付费

好起来了?免费科学文献计划Plan S今年生效,Science昨天又放出「大招」。

没等来OpenAI,等来了Open-Sora全面开源

不久前 OpenAI Sora 以其惊人的视频生成效果迅速走红,在一众文生视频模型中突出重围,成为全球瞩目的焦点。继 2 周前推出成本直降 46% 的 Sora 训练推理复现流程后,Colossal-AI 团队全面开源全球首个类 Sora 架构视频生成模型 「Open-Sora 1.0」,涵盖了整个训练流程,包括数据处理、所有训练细节和模型权重,携手全球 AI 热爱者共同推进视频创作的新纪元。先睹为快,我们先看一段由 Colossal-AI 团队发布的「Open-Sora 1.0」模型生成的都市繁华掠影视频。   

Open-Sora全面开源升级:支持16s视频生成和720p分辨率

Open-Sora 在开源社区悄悄更新了,现在单镜头支持长达16秒的视频生成,分辨率最高可达720p,并且可以处理任何宽高比的文本到图像、文本到视频、图像到视频、视频到视频和无限长视频的生成需求。我们来试试效果。生成个横屏圣诞雪景,发b站再生成个竖屏,发抖音还能生成单镜头16秒的长视频,这下人人都能过把编剧瘾了怎么玩?指路GitHub:,Open-Sora 依旧全部开源,包含最新的模型架构、最新的模型权重、多时间/分辨率/长宽比/帧率的训练流程、数据收集和预处理的完整流程、所有的训练细节、demo示例和详尽的上手教