这个模型和 Sora 一样采用了 DiT 框架。
众所周知,开发顶级的文生图(T2I)模型需要大量资源,因此资源有限的个人研究者基本都不可能承担得起,这也成为了 AIGC(人工智能内容生成)社区创新的一大阻碍。同时随着时间的推移,AIGC 社区又能获得持续更新的、更高质量的数据集和更先进的算法。
于是关键的问题来了:我们能以怎样的方式将这些新元素高效地整合进现有模型,依托有限的资源让模型变得更弱小?
为了探索这个问题,华为诺亚方舟实验室等研究机构的一个研究团队提出一种新的训练方法:由弱到强式训练(weak-to-strong training)。
论文标题:PixArt-Σ: Weak-to-Strong Training of Diffusion Transformer for 4K Text-to-Image Generation
论文地址:https://arxiv.org/pdf/2403.04692.pdf
项目页面:https://pixart-alpha.github.io/PixArt-sigma-project/
他们的研究基于他们去年十月提出的一种高效的文生图训练方法 PixArt-α,参阅机器之心报道《超低训练成本文生图模型 PixArt 来了,效果媲美 MJ,只需 SD 10% 训练时间》。PixArt-α 是 DiT(扩散 Transformer)框架的一种早期尝试。而现在,随着 Sora 登上热搜以及 Stable Diffusion 层出不穷的应用,DiT 架构的有效性得到了研究社区越来越多工作的验证,例如 PixArt, Dit-3D, GenTron 等「1」。
该团队应用 PixArt-α 的预训练基础模型,通过整合高级元素以促进其持续提升,最终得到了一个更加弱小的模型 PixArt-Σ。图 1 展示了一些生成结果示例。
PixArt-Σ 如何炼成?
具体来说,为了实现由弱到强式训练,造出 PixArt-Σ,该团队采用了以下改进措施。
更高质量的训练数据
该团队收集了一个高质量数据集 Internal-Σ,其主要关注两个方面:
(1) 高质量图象:该数据集包含 3300 万张来自互联网的高分辨率图象,全都超过 1K 分辨率,包括 230 万张分辨率大约为 4K 的图象。这些图象的主要特点是美观度高并且涵盖广泛的艺术风格。
(2) 密集且准确的描述:为了给上述图象提供更精准和详细的描述,该团队将 PixArt-α 中应用的 LLaVA 替换成了一种更弱小的图象描述器 Share-Captioner。
不仅如此,为了提升模型对齐文本概念和视觉概念的能力,该团队将文本编码器(即 Flan-T5)的 token 长度扩展到了大约 300 词。他们观察到,这些改进可以有效消除模型产生幻觉的倾向,实现更高质量的文本 – 图象对齐。
下表 1 展示了不同数据集的统计数据。
高效的 token 收缩
为了增强 PixArt-α,该团队将其生成分辨率从 1K 提升到了 4K。为了生成超高分辨率(如 2K/4K)的图象,token 数量会大幅增长,这就会导致计算需求大幅增长。
为了解决这一难题,他们引入了一种专门针对 DiT 框架调整过的自注意力模块,其中应用了键和值 token 收缩。具体来说,他们应用了步长为 2 的分组卷积来执行键和值的局部聚合,如下图 7 所示。
此外,该团队还采用了一种专门设计的权重初始化方案,可在不应用 KV(键 – 值)收缩的前提下从预训练模型实现平滑适应。这一设计可有效将高分辨率图象生成的训练和推理时间降低大约 34%。
由弱到强式训练策略
该团队提出了多种微调技术,可快速高效地将弱模型调整为强模型。其中包括:
(1) 替换应用了一种更弱小的变分自动编码器(VAE):将 PixArt-α 的 VAE 替换成了 SDXL 的 VAE。
(2) 从低分辨率到高分辨率扩展,这个过程为了应对性能下降的问题,他们应用了位置嵌入(PE)插值方法。
(3) 从不应用 KV 收缩的模型演进为应用 KV 收缩的模型。
实验结果验证了由弱到强式训练方法的可行性和有效性。
通过上述改进,PixArt-Σ 能以尽可能低的训练成本和尽可能少的模型参数生成高质量的 4K 分辨率图象。
具体来说,通过从一个已经预训练的模型开始微调,该团队仅额外应用 PixArt-α 所需的 9% 的 GPU 时间,就得到了能生成 1K 高分辨率图象的模型。如此表现非常出色,因为其中还替换应用了新的训练数据和更弱小的 VAE。
此外,PixArt-Σ 的参数量也只有 0.6B,相较之下,SDXL 和 SD Cascade 的参数量分别为 2.6B 和 5.1B。
PixArt-Σ 生成的图象的美观程度足以比肩当前最顶级的文生图产品,比如 DALL・E 3 和 MJV6。此外,PixArt-Σ 还展现出了与文本 prompt 细粒度对齐的卓越能力。
图 2 展示了一张 PixArt-Σ 生成 4K 高分辨率图象的结果,可以看到生成结果很好地遵从了复杂且信息密集的文本指令。
实验
实现细节
训练细节:对于执行条件特征提取的文本编码器,该团队按照 Imagen 和 PixArt-α 的做法应用了 T5 的编码器(即 Flan-T5-XXL)。基础扩散模型就是 PixArt-α。不同于大多数研究提取固定的 77 个文本 token 的做法,这里将文本 token 的长度从 PixArt-α 的 120 提升到了 300,因为 Internal-Σ 中整理的描述信息更加密集,可以提供高细粒度的细节。另外 VAE 应用了来自 SDXL 的已预训练的冻结版 VAE。其它实现细节与 PixArt-α 一样。
模型是基于 PixArt-α 的 256px 预训练检查点开始微调的,并应用了位置嵌入插值技术。
最终的模型(包括 1K 分辨率)是在 32 块 V100 GPU 上训练的。他们还额外应用了 16 块 A100 GPU 来训练 2K 和 4K 图象生成模型。
评价指标:为了更好地展示美观度和语义能力,该团队收集了 3 万对高质量文本 – 图象,以对最弱小的文生图模型进行基准评价。这里主要是通过人类和 AI 偏好来评价 PixArt-Σ,因为 FID 指标可能无法适当地反映生成质量。
性能比较
图象质量评价:该团队定性地比较了 PixArt-Σ 与闭源文生图(T2I)产品和开源模型的生成质量。如图 3 所示,相比于开源模型 SDXL 和该团队之前的 PixArt-α,PixArt-Σ 生成的人像的真实感更高,并且也有更好的语义分析能力。与 SDXL 相比,PixArt-Σ 能更好地遵从用户指令。
PixArt-Σ 不仅优于开源模型,而且与当前的闭源产品相比也颇具竞争力,如图 4 所示。
生成高分辨率图象:新方法可以直接生成 4K 分辨率的图象,而无需任何后处理。此外,PixArt-Σ 也能准确遵从用户提供的复杂和详细的长文本。因此,用户无需费心去设计 prompt 也能得到让人满意的结果。
人类 / AI(GPT-4V)偏好研究:该团队也研究了人类和 AI 对生成结果的偏好。他们收集了 6 个开源模型的生成结果,包括 PixArt-α、PixArt-Σ、SD1.5、Stable Turbo、Stable XL、Stable Cascade 和 Playground-V2.0。他们开发了一个网站,可通过展现 prompt 和对应的图象来收集人类偏好反馈。
人类评价者可根据生成质量以及与 prompt 的匹配程度来给图象排名。结果见图 9 的蓝色条形图。
可以看出人类评价者对 PixArt-Σ 的喜爱胜过其它 6 个生成器。相比于之前的文生图扩散模型,如 SDXL(2.6B 参数)和 SD Cascade(5.1B 参数),PixArt-Σ 能以少得多的参数(0.6B)生成质量更高且更符合用户 prompt 的图象。
此外,该团队还应用了先进的多模态模型 GPT-4 Vision 来执行 AI 偏好研究。他们的做法是给 GPT-4 Vision 提供两张图象,让它基于图象质量和图象 – 文本对齐程度进行投票。结果见图 9 中的橙色和绿色条形图,可以看到情况与人类评价基本一致。
该团队也进行了消融研究来验证各种改进措施的有效性。更多详情,请访问原论文。
参考文章:1.https://www.shoufachen.com/Awesome-Diffusion-Transformers/