苹果文生图大模型亮相:俄罗斯套娃式散布,支持1024×1024分辨率

习惯了 Stable Diffusion,如今终于又迎来一个俄罗斯套娃式(Matryoshka)Diffusion 模型,还是苹果做的。在生成式 AI 时代,散布模型已经成为图象、视频、3D、音频和文本生成等生成式 AI 应用的流行工具。然而将散布模型拓展到高分辨率领域仍然面临巨大挑战,这是因为模型必须在每个步骤重新编码所有的高分辨率输出。解决这些挑战需要利用带有注意力块的深层架构,这使得优化更困难,消耗的算力和内存也更多。怎么办呢?最近的一些工作专注于研究用于高分辨率图象的高效网络架构。但是现有步骤都没有展示出超

习惯了 Stable Diffusion,如今终于又迎来一个俄罗斯套娃式(Matryoshka)Diffusion 模型,还是苹果做的。

在生成式 AI 时代,散布模型已经成为图象、视频、3D、音频和文本生成等生成式 AI 应用的流行工具。然而将散布模型拓展到高分辨率领域仍然面临巨大挑战,这是因为模型必须在每个步骤重新编码所有的高分辨率输出。解决这些挑战需要利用带有注意力块的深层架构,这使得优化更困难,消耗的算力和内存也更多。

怎么办呢?最近的一些工作专注于研究用于高分辨率图象的高效网络架构。但是现有步骤都没有展示出超过 512×512 分辨率的效果,并且生成质量落后于主流的级联或 latent 步骤。

我们以 OpenAI DALL-E 2、谷歌 IMAGEN 和英伟达 eDiffI 为例,它们通过学习一个低分辨率模型和多个超分辨率散布模型来节省算力,其中每个组件都单独训练。另一方面,latent 散布模型(LDM)仅学习低分辨率散布模型,并依赖单独训练的高分辨率自编码器。对于这两种方案,多阶段式 pipeline 使训练与推理复杂化,从而往往需要精心调整或举行超参。

本文中,研究者提出了俄罗斯套娃式散布模型(Matryoshka Diffusion Models,MDM)它是用于端到端高分辨率图象生成的全新散布模型。代码很快将释出。

苹果文生图大模型亮相:俄罗斯套娃式散布,支持1024x1024分辨率

论文地址:https://arxiv.org/pdf/2310.15111.pdf

该研究提出的主要观点是将低分辨率散布过程作为高分辨率生成的一部分,通过利用嵌套 UNet 架构在多个分辨率上执行联合散布过程。

该研究发现:MDM 与嵌套 UNet 架构一起实现了 1)多分辨率损失:大大提高了高分辨率输出去噪的收敛速度;2)高效的渐进式训练计划,从训练低分辨率散布模型开始,按照计划逐步添加高分辨率输出和输出。实验结果表明,多分辨率损失与渐进式训练相结合可以让训练成本和模型质量获得更好的平衡。

该研究在类条件图象生成以及文本条件图象和视频生成方面评估了 MDM。MDM 让训练高分辨率模型无需利用级联或潜在散布(latent diffusion)。消融研究表明,多分辨率损失和渐进训练都极大地提高了训练效率和质量。

我们来欣赏以下 MDM 生成的图片和视频。

苹果文生图大模型亮相:俄罗斯套娃式散布,支持1024x1024分辨率

苹果文生图大模型亮相:俄罗斯套娃式散布,支持1024x1024分辨率

步骤概览

研究者介绍称,MDM 散布模型在高分辨率中举行端到端训练,同时利用层级结构的数据形成。MDM 首先在散布空间中泛化了标准散布模型,然后提出了专用的嵌套架构和训练流程。

首先来看如何在扩展空间对标准散布模型举行泛化

与级联或 latent 步骤的不同之处在于,MDM 通过在一个扩展空间中引入多分辨率散布过程,学得了具有层级结构的单个散布过程。具体以下图 2 所示。

苹果文生图大模型亮相:俄罗斯套娃式散布,支持1024x1024分辨率

具体来讲,给定一个数据点 x ∈ R^N,研究者定义了与时间相关的隐变量 z_t =  z_t^1 , . . . , z_t^R  ∈ R^N_1+…NR。

苹果文生图大模型亮相:俄罗斯套娃式散布,支持1024x1024分辨率

研究者表示,在扩展空间中举行散布建模有以下两点优点。其一,我们在推理期间通常关心全分辨率输出 z_t^R,那么所有其他中等分辨率被看作是额外的隐变量 z_t^r,增加了建模分布的复杂度。其二,多分辨率依赖性为跨 z_t^r 共享权重和算计提供了机会,从而以更高效的方式重新分配算计,并实现高效训练和推理。

接下来看嵌套架构(NestedUNet)如何工作

与典型的散布模型类似,研究者利用 UNet 网络结构来实现 MDM,其中并行利用残差连接和算计块以保留细粒度的输出信息。这里的算计块包含多层卷积和自注意力层。NestedUNet 与标准 UNet 的代码分别以下。

苹果文生图大模型亮相:俄罗斯套娃式散布,支持1024x1024分辨率

除了相较于其他层级步骤的简单性,NestedUNet 允许以最高效的方式对算计举行分配。以下图 3 所示,研究者早期探索发现,当以最低分辨率分配大部分参数和算计时,MDM 实现了明显更好的扩展性。

苹果文生图大模型亮相:俄罗斯套娃式散布,支持1024x1024分辨率

最后是学习

研究者利用常规去噪目标在多个分辨率下训练 MDM,以下公式 (3) 所示。

苹果文生图大模型亮相:俄罗斯套娃式散布,支持1024x1024分辨率

这里用到了渐进式训练。研究者按照上述公式 (3) 直接对 MDM 举行端到端训练,并展示出了比原始基线步骤更好的收敛性。他们发现,利用类似于 GAN 论文中提出的简单渐进式训练步骤,极大地加速了高分辨率模型的训练。

这一训练步骤从一开始就避免了高成本的高分辨率训练,加速了整体收敛。不仅如此,他们还合并了混合分辨率训练,该训练步骤在单个 batch 中同时训练具有不同最终分辨率的样本。

实验及结果

MDM 是一种通用技术,适用于可以逐步压缩输出维度的任何问题。MDM 与基线步骤的比较以下图 4 所示。

苹果文生图大模型亮相:俄罗斯套娃式散布,支持1024x1024分辨率

表 1 给出了在 ImageNet(FID-50K)和 COCO(FID-30K)上的比较结果。

苹果文生图大模型亮相:俄罗斯套娃式散布,支持1024x1024分辨率

下图 5、6、7 展示了 MDM 在图象生成(图 5)、文本到图象(图 6)和文本到视频(图 7)方面的结果。尽管是在相对较小的数据集上举行训练的,但 MDM 仍显示出生成高分辨率图象和视频的强大零样本(zero-shot)能力。

苹果文生图大模型亮相:俄罗斯套娃式散布,支持1024x1024分辨率

苹果文生图大模型亮相:俄罗斯套娃式散布,支持1024x1024分辨率

苹果文生图大模型亮相:俄罗斯套娃式散布,支持1024x1024分辨率

感兴趣的读者可以阅读论文原文,了解更多研究内容。

给TA打赏
共{{data.count}}人
人已打赏
应用

ChatGPT上新文献分析、自动搜刮等功效,首创公司的产物被取代?

2023-10-30 17:11:00

应用

图灵奖得主吵起来了,LeCun:Bengio、Hinton等的AI灭绝论是荒谬的

2023-10-30 17:24:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索