3D虚拟试穿来了,上大、腾讯等提出ClotheDreamer,数字人也能实现穿,脱衣自由!

今天,给大家介绍上大、腾讯等提出的3D服装合成新方法ClotheDreamer,它以其革命性的能力,从简单的文本提示直接生成高保真、可穿戴的3D服装资产,正在重塑电商与空间计算领域的未来。 数字人也能实现穿、脱衣自由了!相关链接论文阅读::(即将开源)项目地址: 3D 服装对于数字化身创建来说既是理想的也是具有挑战性的。 最近基于扩散的分数蒸馏采样 (SDS) 方法已经实现了新的可能性,但要么与人体错综复杂地耦合,要么难以重复使用。

今天,给大家介绍上大、腾讯等提出的3D服装合成新方法ClotheDreamer,它以其革命性的能力,从简单的文本提示直接生成高保真、可穿戴的3D服装资产,正在重塑电商与空间计算领域的未来。数字人也能实现穿、脱衣自由了!

图片图片

相关链接

论文阅读:https://arxiv.org/pdf/2406.16815

代码地址:https://github.com/ggxxii/clothedreamer(即将开源)

项目地址:https://ggxxii.github.io/clothedreamer/

论文阅读

图片clothedreaming:文本引导的3D高斯服装生成

摘要

从文本合成高保真 3D 服装对于数字化身创建来说既是理想的也是具有挑战性的。最近基于扩散的分数蒸馏采样 (SDS) 方法已经实现了新的可能性,但要么与人体错综复杂地耦合,要么难以重复使用。

我们介绍了 ClotheDreamer,这是一种基于 3D 高斯的方法,用于从文本提示生成可穿戴、可用于生产的 3D 服装资产。我们提出了一种新颖的表示解缠结服装高斯溅射 (DCGS) 来实现单独优化。DCGS 将穿衣的化身表示为一个高斯模型,但冻结了身体高斯溅射。为了提高质量和完整性,我们结合双向 SDS 分别监督穿衣的化身和服装 RGBD 渲染和姿势条件,并提出了一种针对宽松服装的新修剪策略。

我们的方法还可以支持自定义服装模板作为输入。得益于我们的设计,合成的 3D 服装可以轻松应用于虚拟试穿并支持物理精确的动画。大量实验证明了我们方法的卓越和竞争力。

方法

图片ClotheDreamer 概述。给定一个文本描述,我们首先利用 ChatGPT 确定衣服 ID 类型以进行初始化。我们引入了解缠衣服高斯溅射 (DCGS),它将穿衣服的化身表示为单高斯模型,但冻结身体高斯溅射以实现单独的监督。借助解析高斯溅射 (GS) 渲染,我们使用 Bidreactional SDS 分别根据姿势条件指导衣服和身体 RGBD 渲染。我们还支持模板网格输入,用于多功能个性化 3D 服装生成。

图片

服装类型。我们提供了六个常用组来初始化零拍摄服装生成中的DCGS。

图片

高斯初始化的重要性。用双高斯模型渲染穿衣服的角色时可能会出现伪影。

实验

动画结果

图片###自动试穿 ClotheDreamer 生成的服装可以适合不同的体形。图片

图片服装文本生成的定性比较。我们比较了最新的最先进的3D生成基线在七种不同的服装文字描述。请注意,红色文本强调未完成的服装生成,而橙色箭头表示多余人体部位的几何伪影。

图片

模板引导服装生成结果

图片

双向SDS制导的消融研究

图片

松衣修剪策略的消融研究

图片

适合不同体型的DCGS服装

结论

本文介绍了 ClotheDreamer,这是一种从文本提示生成多样且可穿戴的3D服装的创新方法。本文提出了一种新颖的表示方法,名为Disentangled Clothe Gaussian Splatting (DCGS),能够有效地将衣服与身体解耦。本文还提出了双向SDS指导,它分别监督带有姿态条件的服装化身RGBD渲染,并引入了一种新的修剪策略,以增强宽松服装的生成完整性。此外,本文展示了通过结合模板网格原语进行个性化生成的多样性。本文的DCGS服装可以通过模拟的网格先验实现逼真的布料动画。实验和用户研究表明,本文的方法在外观和几何质量方面优于最先进的方法。

局限性和未来工作。尽管 ClotheDreamer 展示了令人鼓舞的结果,但它仍然存在一些局限性。首先,本文的方法目前整合了上衣和下衣,更精细的解耦将适用于更复杂的试穿场景。其次,类似于其他基于SDS的方法,本文的方法在某些情况下也会出现颜色过饱和的问题。本文相信,探索改进SDS的方法可以帮助缓解这个问题。最后,探索为3D高斯表示disentangling lighting以增强逼真度也是一个有趣的未来方向。最后,disentangling lighting 增强真实感的 3D 高斯表示也是一个有趣的未来方向。

相关资讯

不到60秒就能生成3D「手办」,Meta发力3D生成,ChatGPT时刻要来了吗?

3D 生成,一直在等待它的「ChatGPT时刻」。一直以来,创作 3D 内容是设计和开发视频游戏、增强现实、虚拟现实以及影视特效中最重要的部分。然而,3D 生成具有独特而艰巨的挑战,这是图像和视频等其他生成内容所不具备的。首先,3D 内容在艺术质量、生成速度、3D 网格结构和拓扑质量、UV 贴图结构以及纹理清晰度和分辨率方面具有严格的标准;其次,与其他研究相比,可用的数据量少。虽然该领域有数十亿张图像和视频可供学习,但可用于训练的 3D 内容数量要少三到四个数量级。因此,现阶段的3D 生成还必须从非 3D 的图像和

3D城市自动生成方案升级,腾讯GiiNEX游戏AI引擎正式亮相

3月20日,在2024全球游戏开发者大会(GDC)上,腾讯发布了自研游戏AI引擎——GiiNEX。基于生成式AI和决策AI技术,GiiNEX将为游戏全生命周期提供丰富的AI解决方案。借助大模型等生成式AI技术,GiiNEX面向AI NPC、场景制作、内容生成等场景,提供了包括2D图像、动画、3D城市、剧情、对话、关卡以及音乐等多样化的AIGC能力,帮助开发者提升高质量内容生成的效率。同时,GiiNEX也将决策AI技术用于游戏研发测试、模拟玩法等场景,加速游戏创新迭代,以快速适应玩家个性化需求和多变的市场趋势。在会上

李飞飞「世界实验室」重磅推出 AI“造物主”:一张图片生成 3D 世界“任意门”

刚刚斯坦福大学的李飞飞教授宣布,她带领的World Labs团队推出一个能从单张图片生成 3D 世界的 AI 系统! 不是简单的 3D 建模,而是真正可以交互的 3D 物理场景! 3D场景在浏览器里就能实时渲染,还能用WASD键和鼠标自由控制视角,就像玩游戏一样!