3D服装生成新SOTA!谷歌和CMU提出FabricDiffusion:可将织物纹理从单个图像迁移到3D服装

本文经AIGC Studio公众号授权转载,转载请联系出处。 3D服装生成新工作! 谷歌和CMU提出FabricDiffusion:一种将织物纹理从单个服装图像迁移到任意形状的 3D 服装的方法。

本文经AIGC Studio公众号授权转载,转载请联系出处。

3D服装生成新工作!谷歌和CMU提出FabricDiffusion:一种将织物纹理从单个服装图像迁移到任意形状的 3D 服装的方法。FabricDiffusion性能表现SOTA!同时可以泛化到unseen的纹理和服装形状!收录顶会SIGGRAPH Asia 2024!

图片给定一个现实世界的 2D 服装图像和一个原始的 3D 服装网格,我们提出使用 FabricDiffusion 自动从参考图像中提取高质量的纹理贴图和打印件,并将其转移到目标 3D 服装表面。我们的方法可以处理不同类型的纹理、图案和材料。此外,FabricDiffusion 不仅能够生成漫反射反照率,还能生成粗糙度、法线和金属纹理贴图,从而能够在各种照明条件下对制作的 3D 服装进行精确的重新照明和渲染。

论文阅读

图片

摘要

我们引入了 FabricDiffusion,这是一种将织物纹理从单个服装图像转移到任意形状的 3D 服装的方法。现有方法通常通过 2D 到 3D 纹理映射或通过生成模型进行深度感知修复来合成服装表面的纹理。不幸的是,这些方法通常难以捕捉和保留纹理,这表明我们的模型在合成数据和现实世界中的服装图像上的表现明显优于最先进的方法,同时可以推广到看不见的纹理和服装形状。

方法

图片FabricDiffusion 概述。 给定一张真实的服装图像及其面料材料和印花的区域捕获,(a) 我们的模型提取归一化的纹理和印花,(b) 然后生成高质量的基于物理的渲染 (PBR) 材料和透明印花。(c) 这些材料和印花可以应用于任意形状的目标 3D 服装网格 (d) 以实现逼真的重新照明。我们的模型纯粹使用合成数据进行训练,并实现了对真实世界图像的零样本泛化。

图片

配对训练数据构建管道。给定 PBR 材质的纹理,我们将其应用于目标原始 3D 服装网格和普通网格。3D 服装使用环境贴图渲染,而普通网格使用来自上方的点光源照亮。两个网格生成的渲染图像 (𝑥, 𝑥0 ) 作为训练纹理生成模型的配对训练示例。

实验

图片真实世界服装图像上的纹理转移结果。我们的方法可以处理真实世界的服装图像以生成规范化的纹理贴图,以及相应的 PBR 材料。PBR 贴图可以应用于 3D 服装,以实现逼真的重新照明和渲染。

图片印花和徽标上的结果可转移到真实世界的图像上。给定一张带有印花和/或徽标的真实服装图像,以及印花所在区域的裁剪补丁。我们的方法会生成无失真且透明的印花元素,可将其应用于目标 3D 服装以实现逼真的渲染。请注意,背景纹理也是使用我们的方法进行传输的。

图片

图像到服装纹理转移的比较。FabricDiffusion忠实地捕捉并保留输入服装的纹理图案。

图片

PBR 材料提取的定性比较。材料调色板几乎无法捕捉织物材料,而我们的 FabricDiffusion 模型能够恢复织物纹理的物理特性,尤其是在粗糙度和漫反射图上。

结论

本文介绍了FabricDiffusion,这是一种将织物纹理和印花从单个现实世界服装图像转移到具有任意形状的 3D 服装上的新方法。该方法完全使用合成渲染图像进行训练,能够从野外服装图像中生成未失真的纹理和印花。虽然该方法在真实照片和多样化纹理图案方面表现出强大的泛化能力,但它在某些输入方面面临挑战。

具体来说,FabricDiffusion 在重建非重复图案时可能会产生错误,并且难以准确捕捉复杂印花或徽标中的精细细节,特别是因为我们的重点是具有均匀背景、中等复杂度和中等失真的印花。

相关资讯

不到60秒就能生成3D「手办」,Meta发力3D生成,ChatGPT时刻要来了吗?

3D 生成,一直在等待它的「ChatGPT时刻」。一直以来,创作 3D 内容是设计和开发视频游戏、增强现实、虚拟现实以及影视特效中最重要的部分。然而,3D 生成具有独特而艰巨的挑战,这是图像和视频等其他生成内容所不具备的。首先,3D 内容在艺术质量、生成速度、3D 网格结构和拓扑质量、UV 贴图结构以及纹理清晰度和分辨率方面具有严格的标准;其次,与其他研究相比,可用的数据量少。虽然该领域有数十亿张图像和视频可供学习,但可用于训练的 3D 内容数量要少三到四个数量级。因此,现阶段的3D 生成还必须从非 3D 的图像和

专访生数科技唐家渝:清华系团队拿到近亿融资,用Transformer来做多模态大模型

随着GPT4的出现,多模态大模型的发展方向逐渐成为共识。近日,一支由清华人工智能研究院副院长朱军教授带领的新团队悄悄完成了近亿级天使轮融资。

Stability AI 开源上新:3D 生成引入视频扩散模型,质量一致性 up,4090 可玩

Stable Diffusion 背后公司 Stability AI 又上新了。这次带来的是图生 3D 方面的新进展:基于 Stable Video Diffusion 的 Stable Video 3D(SV3D),只用一张图片就能生成高质量 3D 网格。Stable Video Diffusion(SVD)是 Stability AI 此前推出的高分辨率视频生成模型。也就是说,此番登场的 SV3D 首次将视频扩散模型应用到了 3D 生成领域。官方表示,基于此,SV3D 大大提高了 3D 生成的质量和视图一致性。