Adobe 演示 VideoGigaGAN:视频分辨率从 128×128 提升到 1024*1024

Adobe 公司近日展示了名为 VideoGigaGAN 的全新 AI 工具,通过上采样技术可以将视频分辨率从 128×128 提升到 1024*1024。VideoGigaGAN 是基于 GigaGAN 的生成视频超分辨率(VSR)模型,可以生成具有高频细节和时间一致性的视频。 研究人员为了确保时间一致性,首先需要在解码器块(decoder blocks)中添加时间注意力层(temporal attention layers),将图像上采样器扩展为视频上采样器(video upsampler)。IT之家附上参考地

Adobe 公司近日展示了名为 VideoGigaGAN 的全新 AI 工具,通过上采样技术可以将视频分辨率从 128×128 提升到 1024*1024。

Adobe 演示 VideoGigaGAN:视频分辨率从 128×128 提升到 1024*1024

Adobe 演示 VideoGigaGAN:视频分辨率从 128×128 提升到 1024*1024

VideoGigaGAN 是基于 GigaGAN 的生成视频超分辨率(VSR)模型,可以生成具有高频细节和时间一致性的视频。

研究人员为了确保时间一致性,首先需要在解码器块(decoder blocks)中添加时间注意力层(temporal attention layers),将图像上采样器扩展为视频上采样器(video upsampler)。

Adobe 演示 VideoGigaGAN:视频分辨率从 128×128 提升到 1024*1024

IT之家附上参考地址

VideoGigaGAN: Towards Detail-rich Video Super-Resolution

相关资讯

2024 科大讯飞全球 1024 开发者节官宣:首发多模态视觉交互、超拟人虚拟人交互能力

感谢AI在线从科大讯飞获悉,第七届世界声博会暨 2024 科大讯飞全球 1024 开发者节将于今年 10 月 24 日在合肥奥体中心正式开启。官方表示,届时将发布讯飞星火大模型升级版,其底座能力将再次升级,包含数学、代码和长文本能力显著提升、中英文综合能力持续领先,训练推理效率大幅提升等特性。在今年的 1024 开发者节活动中,科大讯飞还将首次发布多模态视觉交互及超拟人虚拟人交互能力,官方称将面向万物智联“打造极致人机交互体验”。此外,还将在教育、医疗、科研、司法、政务等领域升级行业大模型及更多应用产品。在去年的

从零开始,用英伟达T4、A10训练小型文生视频模型,几小时搞定

很翔实的一篇教程。OpenAI 的 Sora、Stability AI 的 Stable Video Diffusion 以及许多其他已经发布或未来将出现的文本生成视频模型,是继大语言模型 (LLM) 之后 2024 年最流行的 AI 趋势之一。在这篇博客中,作者将展示如何将从头开始构建一个小规模的文本生成视频模型,涵盖了从理解理论概念、到编写整个架构再到生成最终结果的所有内容。由于作者没有大算力的 GPU,所以仅编写了小规模架构。以下是在不同处理器上训练模型所需时间的比较。作者表示,在 CPU 上运行显然需要更长

算法“视”界杯强势来袭,2021腾讯广告算法大赛正式开启!

技无止竞!算法巅峰对决再起,技术大咖速来报名!