Light-A-Video :无需训练实现视频重新打光

近年来,图像重光照技术的进步得益于大规模数据集和预训练的扩散模型,使得一致性光照的应用变得更加普遍。 然而,在视频重光照领域,由于训练成本高昂以及缺乏多样化和高质量的视频重光照数据集,进展相对缓慢。 仅仅将图像重光照模型逐帧应用于视频,会导致多种问题,如光源不一致和重光照外观不一致,最终导致生成的视频出现闪烁现象。

近年来,图像重光照技术的进步得益于大规模数据集和预训练的扩散模型,使得一致性光照的应用变得更加普遍。然而,在视频重光照领域,由于训练成本高昂以及缺乏多样化和高质量的视频重光照数据集,进展相对缓慢。

仅仅将图像重光照模型逐帧应用于视频,会导致多种问题,如光源不一致和重光照外观不一致,最终导致生成的视频出现闪烁现象。

QQ_1739758877916.png

为了解决这一问题,研究团队提出了 Light-A-Video,这是一种无需训练的、能够实现时间上平滑视频重光照的方法。Light-A-Video 借鉴了图像重光照模型,并引入了两个关键模块以增强光照一致性。

首先,研究人员设计了一个一致光注意力(Consistent Light Attention,CLA)模块,该模块增强了自注意力层内的跨帧交互,以稳定背景光源的生成。

其次,基于光传输独立性的物理原理,研究团队采用线性融合策略,将源视频的外观与重光照外观进行混合,采用渐进光融合(Progressive Light Fusion,PLF)策略,确保光照在时间上的平滑过渡。

在实验中,Light-A-Video 展示了显著改善重光照视频的时间一致性,同时保持了图像质量,确保了跨帧的光照过渡的一致性。框架中展示了源视频的处理过程:首先对源视频进行噪声处理,然后经过 VDM 模型进行逐步去噪。在每一步中,预测的无噪声组件代表了 VDM 的去噪方向,并作为一致目标。在此基础上,一致光注意力模块注入独特的光照信息,将其转变为重光照目标。最后,渐进光融合策略将两个目标合并,形成融合目标,从而为当前步骤提供了更精细的方向。

Light-A-Video 的成功不仅展示了视频重光照技术的潜力,也为未来的相关研究指明了方向。

https://bujiazi.github.io/light-a-video.github.io/

划重点:

🌟 Light-A-Video 是一种无需训练的技术,旨在实现视频重光照的时间一致性。  

🎥 采用一致光注意力模块和渐进光融合策略,解决了视频重光照中的光源不一致问题。  

📈 实验表明,Light-A-Video 显著提高了重光照视频的时间一致性与图像质量。

相关资讯

Light-R1-32B:低成本高性能的数学解题新星闪耀登场

2025年3月6日,一款名为 **Light-R1-32B** 的全新语言模型正式亮相。 这款基于 **Qwen2.5-32B-Instruct** 模型打造的数学解题利器,经过特别训练,以其卓越的数学解题能力、低廉的训练成本以及可复现性,成为人工智能领域的一大亮点。 开发团队xAI表示,Light-R1-32B不仅在性能上超越同类模型,还为学术研究和实际应用提供了极具价值的参考。

ControlNet 作者新作爆火:P 照片换背景不求人,AI 打光完美融入

ControlNet 作者新作,玩儿得人直呼过瘾,刚开源就揽星 1.2k。用于操纵图像照明效果的 IC-Light,全称 lmposing Consistent Light。玩法很简单:上传任意一张图,系统会自动分离人物等主体,选择光源位置,填上提示词,就能毫无破绽地融入新环境了!赶紧来个王家卫式的打光:不喜欢?没关系,换成窗外打进来的自然光,也就分分钟的事。目前,IC-Light 提供两类模型:文本条件重照明模型,还有背景条件模型。两种模型都需要以前景图像作为输入。鉴于之前 Controlnet 太好玩儿,这次

清华朱文武团队:开源世界首个轻量图自动机器学习库AutoGL-light

清华大学朱文武教授团队自 2020 年发布智图库(AutoGL)以来,在图自动机器学习的可解释性和可泛化能力等方面取得新进展,特别关注于图 Transformer、图分布外泛化(OOD)、图自监督学习等方面,发表图神经架构搜索评测基准,并在中国新一代开源创新服务平台 GitLink 上发布首个轻量智图库(AutoGL-light)。智图库回顾图(graph)是描述数据间关系的一般抽象,广泛存在于不同的研究领域中并有许多重要应用,例如社交网络分析、推荐系统、交通预测等互联网应用,新药物发现、新材料制备等科学应用(AI