如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

随着人工智能的逐渐发展,越来越多的 AI 工具也一窝蜂的涌现出来。 在众多的 AI 利器当中 Midjourney(简称 MJ)和 Stable diffusion(简称 SD)两款软件在图片的效果呈现上表现尤为突出,虽然 MJ 能够通过描述关键词来对图像进行调整,但总觉得跟脑海里设想的那张图还差一点意思,不能完全的符合心里预期。 迫于这个原因我们将经历投入到 SD 的学习当中,在学习的过程中发现 SD 的操作界面对设计师来说比较友好,操作界面更类似于一款软件的操作界面,感觉是在学习一门技术(可能是总用绘图软件做图

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

随着人工智能的逐渐发展,越来越多的 AI 工具也一窝蜂的涌现出来。

在众多的 AI 利器当中 Midjourney(简称 MJ)和 Stable diffusion(简称 SD)两款软件在图片的效果呈现上表现尤为突出,虽然 MJ 能够通过描述关键词来对图像进行调整,但总觉得跟脑海里设想的那张图还差一点意思,不能完全的符合心里预期。

迫于这个原因我们将经历投入到 SD 的学习当中,在学习的过程中发现 SD 的操作界面对设计师来说比较友好,操作界面更类似于一款软件的操作界面,感觉是在学习一门技术(可能是总用绘图软件做图留下的后遗症)。

在实际操作 SD 这款软件时有两点是强于 MJ 的:1.它可以精准控制画面的构图及布局。2.它也可以定制画面的输出风格。在工作上能将所设想的草图通过 control net 插件进行百分之百的还原,可以说大大的提高了出图质量及数量。

本次分享将结合平时工作中,应用到 SD 软件进行出图的实操经验,通过对 SD 的运用输出行业场景图来给大家做一些示范。在日常的工作中,为了保证视觉构图还有画面风格的一致性,有意去搭建了属于赶集行业特征的运营场景素材库,目的是为了让设计师能灵活调用,随做随取,节省时间提高效率。

更多AI实战案例:

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

在开始实操之前,先来说下 SD 的工作流程:1.前期需要在脑子里构想一个场景图,并借用绘图软件勾勒出大概的草图轮廓线。2.通过 SEG 图表找到对应材质的色值(SEG 色表大家可以网上搜索自行下载),实现对画面中摆放物体的材质进行精准调节。3.将文生图得到的图片转到图生图中借助 control net 插件中 tile_resample 模型对图片里的细节进行处理于此同时使用脚本中的 UItemate SD upscale 模型将已得到的图片进行人为放大(这样做是为了在图生图的放大过程中同时修补画面细节)

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

一、线稿生成图

好的废话不多说,咱们开始演示:

第一步输入正向关键词:CBD 办公场景,宽敞明亮,有格调,高清摄影,广告级修图,8K 高清,CBD office scene,Bright and spacious,There is style,HD photography,Ad-level retouching,8K HD,

反向关键词:

NSFW,nude,naked,porn,(worst quality, low quality:1.4),deformed iris,deformed pupils,(deformed,distorteddisfigured:1.3)cropped,out of frame,

poorlydrawn,badanatomy,wronganatomy,extralimb,missinglimb,floatinglimbs,cdonedface(mutatedhandsandfingers:1.4),

disconnectedlimbs,extralegs,fusedfingers,toomanyfingers,longneck,mutation,mutated,ugly,

disgusting.amputation,blurry,jpegartifacts,watermark,watermarked,text,Signature,sketch,

输入关键词的同时将脑子里的想法通过绘图软件绘制成线稿图(这个线稿的布局及外形决定了出图的结构及布局),将绘制好的草图上传至 control net 插件里选择 scribble 模型(实际操作界面如下)。

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

生成效果如下:

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

二、SEG色值生成

第二步:根据画面需要对场景内的物体进行材质更换(这一步需要配合关键词即画面中出现的材质需要在关键词中也对应提及,关键词的重要程度要用()强调,同样也借助 control net 插件里选择 seg 模型,配合第一步的操作双开 control net 模型,SEG 权重的大小数值,决定最终呈现的效果。

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

生成效果如下:

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

三、放大图片调整细节

第三步:选择一张自己心仪的图片然后转到图生图模式,将图片结合 control net 插件中的 tile_resample 进行细节丰富,同时使用脚本中的 UItemate SD upscale 模型将其放大至自己想要的图片大小。

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

好啦,现在你已经得到了一张定制化的场景图片了,是不是还是蛮精准的,按照我们上述的操作路径,我们分别对餐饮场景、销售办公场景、美容美发场景进行了批量生成,效果图片如下。

生成餐饮场景效果如下:

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

生成美业场景效果如下:

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

生成销售场景效果如下:

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

总结:AI 自我的学习能力非常强大,每一刻都在迭代,可能身处这个时代的我们能做的就是不断的拥抱变化,学习如何去驾驭 AI,学会用 AI 为工作提效,希望能从不断的学习探索中找到新突破。

相关资讯

8大实战案例!AIGC在网易落地项目中的运用

AIGC 全称 AI Generated Content,是利用人工智能技术来生成内容,AIGC 绘画属于 AIGC 的分支。 近半年,以 Midjourney 和 Stable Diffusion 为代表的 AIGC 绘画迎来爆发式发展,掀起了一场生产力革命。Midjourney 和 Stable Diffusion 强大的创造力和无与伦比的高效性,使设计师通过它们提升生产力成为了必然。然而 Midjourney 和 Stable Diffusion 作为开放性工具,本身具有随机性与不可控性,很多设计师很难在工作

SD WebUI 中也能用上实时绘画了!支持接入PS/Blender 等设计工具

大家好,这里是和你们一起探索 AI 绘画的花生~ 之前为大家介绍过 AI 绘画工具 Krea,它可以根据手绘的草图实时生成完整的画面,可以让我们更精准地控制图像效果,对电商、产品、游戏概念等设计领域来说非常有帮助。之前为大家推荐过一种在 ComfyUI 中免费实现 AI 实时绘画的方式,今天就再为大家推荐另一种在 Stable Diffusion WebUI 中实现实时绘画的方法。一、插件简介 SD WebUI 的实时绘画功能需要借助一个插件实现,这个插件是上周由 B 站 AI 绘画博主@朱尼酱推出,支持文生图、图

超详细!Stable Diffusion 真人照片转动漫风格保姆级教程

相信我们很多人在看过动漫/动画后,都想看一看二次元世界中的自己长什么样子,那今天就以客户照片为例,说说我们如何用 Stable Diffusion,让 AI 帮我们将真实照片转成一个绝美二次元少女,Let’s do it~ 更多SD干货:客户原图照片如下,希望转成二次元甜美少女。1. 打开 Web UI ,用 Tag 反推,辅助书写关键词用 Tag 反推中传入照片,点击反推得到红框中大致的画面内容描述词 1girl, solo, looking up, brown hair, belt, long hair, ar