AI在线 AI在线

Stable Diffusion变身3D神器!一个LoRA将2D图像转3D模型

作者:量子位
2025-03-27 09:26
在Stable Diffusion当中,只需加入一个LoRA就能根据图像创建3D模型了? 港科大(广州)与趣丸科技合作推出了全新三维生成大模型——Kiss3DGen,创新性地将3D生成与成熟的图像生成模型进行了对齐。 并且与主流2D扩散模型技术(如ControlNet、Flux-Redux)兼容协同,无需额外训练即可即插即用。

在Stable Diffusion当中,只需加入一个LoRA就能根据图像创建3D模型了?

港科大(广州)与趣丸科技合作推出了全新三维生成大模型——Kiss3DGen,创新性地将3D生成与成熟的图像生成模型进行了对齐。

并且与主流2D扩散模型技术(如ControlNet、Flux-Redux)兼容协同,无需额外训练即可即插即用

图片

△由Kiss3DGen生成的场景

即使在有限的训练数据条件下,Kiss3DGen仍能生成高质量的3D资产,减少对大规模数据的依赖,同时在灵活性和性能方面表现出色。

目前,Kiss3DGen单独使用效果已优于现有开源方法,而且在与现有方法相结合后,性能可进一步增强。

图片

将3D生成转换为2D生图

Kiss3DGen的核心创新点在充分利用现有2D图像生成模型的知识与框架,将多视图图像和对应法线贴图拼接成三维聚合图(3D Bundle Image),把传统3D生成问题转化为2D图像生成任务。

图片

这种方式无需调整现有2D模型的结构,能够最大程度继承其成熟的技术优势。

具体流程可分为两大步骤:

  • 三维聚合图生成:利用DiT(Diffusion Transformer)模型的全局感知能力,高效生成高度对齐的多视图图像及对应法线贴图,无需调整2D模型结构,即可继承其成熟技术优势。
  • Mesh与纹理重建:利用生成的法线贴图进行Mesh重建,通过图像部分生成对应的贴图。整个过程无需额外训练,可直接使用现有重建方法完成高质量3D资产生成。

图片

在训练阶段,需要构建高质量文本-3D数据集,使用LoRA技术对预训练的文本-图像扩散模型(如Flux或SD3.5)进行微调,生成高度符合文本描述的三维聚合图。

而生成阶段又可以分为两个环节——

首先利用训练好的模型,根据输入文本提示,生成包含3D模型多视角信息的三维聚合图。

然后,通过LRM或球体初始化方法粗略重建几何和纹理,再通过网格优化与纹理投影技术(如ISOMER),精确重建3D模型的几何形状和纹理细节。

团队简介

该研究的作者为林坚涛、杨鑫以及陈美羲,他们是来自于香港科技大学(广州)ENVISION实验室的硕博生。

图片

图片

图片

本工作由趣丸科技资助,由陈颖聪教授带领硕博研究团队与趣丸科技联合打造。

陈颖聪,香港科技大学(广州)人工智能学域助理教授,博导,受国家人才计划青年项目资助,他长期致力于计算机视觉和视觉生成模型的研究,已在TPAMI、CVPR、ICCV、ECCV等顶级会议和期刊发表五十余篇论文。

陈教授的研究方向包括三维生成与重建、图像视频生成等,并多次以第一作者身份在顶级会议上做口头报告。

他的研究成果屡获大奖,包括ICCV 2023最佳论文提名和中国图像图形学会自然科学奖一等奖。

同时,陈教授也在多个学术会议和期刊中担任程序委员会成员或审稿人,并与多个科技公司建立了深入的合作关系。

图片

论文:https://arxiv.org/abs/2503.01370代码:https://github.com/EnVision-Research/Kiss3DGen项目主页:https://ltt-o.github.io/Kiss3dgen.github.io在线体验:https://gen3d.funnycp.com实验室主页:https://envision-research.hkust-gz.edu.cn/index.html

相关标签:

相关资讯

不到60秒就能生成3D「手办」,Meta发力3D生成,ChatGPT时刻要来了吗?

3D 生成,一直在等待它的「ChatGPT时刻」。一直以来,创作 3D 内容是设计和开发视频游戏、增强现实、虚拟现实以及影视特效中最重要的部分。然而,3D 生成具有独特而艰巨的挑战,这是图像和视频等其他生成内容所不具备的。首先,3D 内容在艺术质量、生成速度、3D 网格结构和拓扑质量、UV 贴图结构以及纹理清晰度和分辨率方面具有严格的标准;其次,与其他研究相比,可用的数据量少。虽然该领域有数十亿张图像和视频可供学习,但可用于训练的 3D 内容数量要少三到四个数量级。因此,现阶段的3D 生成还必须从非 3D 的图像和
7/4/2024 5:55:00 PM
机器之心

纯RGB输入,解决户外场景SLAM!误差降低至9.8%,港科广开源 | ICRA 2025

在自主驾驶、机器人导航、AR/VR等前沿应用中,Simultaneous Localization and Mapping (SLAM) 是核心技术之一。 现有基于3D高斯分布(3DGS)的SLAM方法虽在室内场景表现出色,但使用仅RGB输入来处理无界的户外场景仍然面临挑战:准确的深度和尺度估计困难,这影响了姿态精度和3DGS初始化图像重叠有限且视角单一,缺乏有效的约束,导致训练难以收敛为了解决上述挑战,港科广团队提出全新解决方案OpenGS-SLAM,仅凭RGB图像实现高精度定位与逼真场景重建。 论文链接:::,该方法采用了一个点图回归网络来生成帧间一致的点图,储存了来自多个标准视角的3D结构,包含了视角关系、2D到3D的对应关系和场景几何信息,使得相机位姿估计更加稳健,有效缓解了预训练深度网络的误差问题。
3/27/2025 10:54:06 AM
新智元

单张照片生成360°3D场景,支持灵活视角漫游|人大&北师大&字节

从单张图像生成灵活视角3D场景的技术来了,在考古保护、自主导航等直接获取3D数据成本高昂或不可行的领域具有重要应用价值。 这一任务本质上是高度不适定的:单一的2D图像无法提供足够的信息来消除完整3D结构的歧义,尤其是在极端视角(如180°旋转)下,先前被遮挡或缺失的内容可能会引入显著的不确定性。 生成模型,特别是扩散模型,为解决这一问题提供了一种潜在的技术路径。
3/31/2025 8:27:00 AM
量子位