彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

我们热衷探索 Stable Diffusion 是因为它的开源生态与极大的自由度和控制力。 尽管 Stable Diffusion 在图像控制精度上远超 Midjourney,但其复杂操作流程总让创作者望而却步。 然而,最近情况出现了转机。

彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

我们热衷探索 Stable Diffusion 是因为它的开源生态与极大的自由度和控制力。尽管 Stable Diffusion 在图像控制精度上远超 Midjourney,但其复杂操作流程总让创作者望而却步。

然而,最近情况出现了转机。开年以来,DeepSeek 因其最新发布的 R1 推理模型极其强大的推理认知能力席卷全球科技圈——它不仅登顶中美应用商店下载Top榜,更被黑神话悟空的制作人冯骥称为“国运级科技成果”。

我们看了网上各位大神们的文章,发现他们利用 DeepSeek 强大的认知能力,不断将 Stable Diffusion 的操作门槛降低。站在大佬们的肩膀上,我们进一步尝试并成功借助 DeepSeek 的「联网+推理」能力让 Stable Diffusion 中布置 ComfyUI 工作流 和 炼制 LoRA 模型两大环节变得简单而高效。

更多DeepSeek运用干货:

保姆级教程!小白都能学会的Deepseek本地部署方法

本文教你利用 OpenWebUI 进行本地部署,还可以调用所有的开源大模型,有效提高个人或者企业模型数据的保密程度。

阅读文章 >

一、速通 ComfyUI 工作流

彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

ComfyUI 节点繁多,连接复杂。选择合适的节点并了解其连接与设置方法需要大量相关知识,这无疑极大抬高了 ComfyUI 的使用门槛。并且由于各节点,插件更新频率不统一,且迭代较快,使得教程过时的速度很快,数月前新推出的教程,现在就可能由于节点更新而无法完全适配。因此我们可以利用 DeepSeek 的信息检索能力让他快速辅助我们搭建出合理的工作流。

目前 DeepSeek 大模型已接入多个平台,我们可以选择任意一个支持联网搜索的平台进行使用。

目前,主流的工作流创建有两种方法,一种是直接使用现成的工作流 json 文件进行导入,另一种是手动连接节点。我们在多次尝试后发现 DeepSeek 并不能写出完整可用的工作流 json 代码。这可能是因为工作流的代码规范复杂,且网络上可参考的代码较少,导致生成代码质量较低,格式不规范。

因此我们通过让 DeepSeek 描述节点连接方法的方式辅助我们进行工作流的手动搭建。

彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

对于指令,我们按照 “任务+要求+补充” 的结构化方法进行描述,如果需要搭建的流程是基于特定环境或情景,也可以加上对指令背景的描述。

因此我们给出如下指令:

“我要在 ComfyUI 上搭建文生图工作流,让我可以输入提示词生成对应描述的图片(任务),并且详细说明每个节点的各接口是否空置或与哪个节点连接(要求),并且详细说明连接完毕后这个工作流如何使用,可以如何进行调节(补充)”

彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

可以看到 DeepSeek 给出了一个整体的节点连接顺序,并且对每个节点该如何连接进行了详细描述

彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

接下来我们在 liblib 去尝试进行工作流搭建,首先我们按照 DeepSeek 的描述,搜索“Checkpoint Loader”,添加对应节点,并按照描述进行连接。

彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

最后我们输入正面和负面提示词进行测试,可以看到,DeepSeek 完整实现了文生图的一个工作流的搭建,并且可以正常运行并生成图片,极大降低了新手的入门门槛。

二、高效打标签,速通 LoRA 模型炼制

之前,在炼制 LoRA 模型的时候,所花费时间最多的部分就是给图片打标签的部分。官方自带的打标签算法大部分时候在主体物非人物的情况下,出来的标签经常和主体图相差十万八千里。因此,这大多数这种情况需要我们采用手动标注的方式。而底模(Checkpoint)如果迭代了,那就意味着我几乎需要把所有的流程重新走一遍。带来的重复工作量可想而知。

而这一切在飞书多维表格接入 DeepSeek 改变了。前两天看了卡兹克大佬的文章 《接入了 DeepSeek 后的飞书,强大到我有点陌生》,里面提到了借助飞书的多维表格,再结合 DeepSeek 的推理能力可以批量输出内容。这里我就联想到了,是否可以借助这样的方式,将打标签这一环节变得简单。

我们做的这个模版就在这里,大家可以自行使用哈: https://acn3dfl2e25a.feishu.cn/base/AfDAbOK2bap0oqs9JcUcF7tPnTd?from=from_copylink

彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

基本就是在第二列上传需要打标签的图片。之后,在表头为「描述」的列中,借助字节的「AI 图片理解」模块识别图片的内容并进行描述。之后,在「xx 提示词」的列中,使用「DeepSeek 大模型」并要求其根据「描述」列中给出的描述内容,生成提示词。

彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

这里需要注意的是,在写描述需求的时候,最好加上「生成英文提示词」,如果没有英文的话,大概率会有几个提示词给出中文的,虽然可以点击进行翻译,但也是非常麻烦的,目前多维表格针对由 DeepSeek 生成的内容是不支持修改的,哪怕只是改动翻译。

彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

完成后,将提示词复制/导出,并以数据集的形式导入炼丹炉就好啦,具体炼丹详情可见这一篇《只要三分钟,让你快速掌握 SD-LoRA 模型炼制的基础知识》

结尾

这次将 Stable Diffusion 和 DeepSeek 的成功结合,确实让我们感到无比振奋。过去,AI 在设计领域的应用往往是碎片化的,需要人工在不同工具之间来回切换和协调。而这次尝试,仿佛为我们打开了一扇新的大门,预示着 AI 全流程设计时代的已悄然降临。

这让我想起了一个关于荷花的故事:在一个空池塘里,荷花每天以翻倍的速度生长,第一天 1 朵,第二天 2 朵,第三天 4 朵……直到第30天,池塘被完全填满。那么,池塘被填满一半是在哪一天呢?答案是第29天。

这个故事似乎也在暗示着我们当下的处境——AI技术的进步并非一蹴而就,而是以指数级的速度悄然积累。

或许,我们正站在第 29 天的门槛上,眼前的一切只是冰山一角。

真正的爆发,可能就在不远处。

相关资讯

SD WebUI 中也能用上实时绘画了!支持接入PS/Blender 等设计工具

大家好,这里是和你们一起探索 AI 绘画的花生~ 之前为大家介绍过 AI 绘画工具 Krea,它可以根据手绘的草图实时生成完整的画面,可以让我们更精准地控制图像效果,对电商、产品、游戏概念等设计领域来说非常有帮助。之前为大家推荐过一种在 ComfyUI 中免费实现 AI 实时绘画的方式,今天就再为大家推荐另一种在 Stable Diffusion WebUI 中实现实时绘画的方法。一、插件简介 SD WebUI 的实时绘画功能需要借助一个插件实现,这个插件是上周由 B 站 AI 绘画博主@朱尼酱推出,支持文生图、图

新模型 Stable Diffusion 3 与 Stable Cascade 全面解析

大家好,我是花生~ 最近 Stability AI 又接连推出了 2 个新的模型:Stable Diffusion 3 和 Stable Cascade,在图像生成效率和质量上比半年前推出的 SDXL 1.0 有了明显提升,今天就为大家介绍一下 2 款新模型的特点和用法。 :一、Stable Diffusion 3 简介 官方介绍: 加入等候名单: 2 月 22 号,Stability AI 发布了新模型 Stable Diffusion 3(下面简称为 SD 3.0),这也是 Stable Diffusion

AI绘画神器Stable Diffusion模型再升级!新版亮点全面盘点!

大家好,这里是和你们聊设计的花生~ 之前为大家对比了 6 款在线 AI 绘画软件在不同主题上的图像生成效果,最终是 Midjourney 的整体表现最好,而 Stability AI 官方模型 Stable Diffusion v2.1 则表现不尽如人意。最近 Stability AI 又推出了一个新模型 Stable Diffusion XL,参数是 SD v2.1 的 2.5 倍,那这个新模型的图像生成效果如何呢?今天就继续来测试一下。 往期回顾:Stable Diffusion XL 简介 DreamStud