设计师在从事品牌视觉相关设计的过程中,往往离不开使用品牌视觉符号从事中心化或风格化设计,下面就为大家分享如何使用 Stable Diffusion 来辅助从事品牌视觉 Logo 延展设计。
更多SD教程:
一、环境搭建
在从事设计之前我们需要先下载 Controlnet QR Code Monster 模型,该模型可以很好的帮助我们对品牌视觉符号 logo 图形从事比较准确的控制。
模型下载传送门: https://huggingface.co/monster-labs/control_v1p_sd15_qrcode_monster
进入传送门下载 control_v1p_sd15_qrcode_monster.safetensors、control_v1p_sd15_qrcode_monster.yaml 两个文件。
并将文件存放在 extensions\sd-webui-controlnet\models 文件中。
二、素材准备
完成基本环境搭建后,我们进入做前期素材准备环节。准备好想要从事视觉延展的原始品牌符号素材以及预期构思的视觉风格 prompt 关键词。
我们以苹果 logo 为例,准备的原始素材图片使用了 512×512 像素尺寸,素材尺寸可以根据个人实际需要调整。为了方便 controlnet 识别控制结构,素材的颜色这里我们需要统一处理成黑白稿。
三、Prompt 构思
准备好素材后,进入 Stable diffusion 文生图界面。
Stable diffusion 模型这里以 epicrealism_pureEvulutionV5 为例,如果没有该模型也可以抉择任意其他偏写实类的模型。
我们以硬件中心为例对苹果品牌从事视觉扩展,围绕硬件中心发散出计算机、晶片、芯片、空间、多维等 Prompt 关键词。在文生图文本框中输出 Prompt:
geometric multidimensional space, many three-dimensional light emitting blocks, blue light and black background, with a glowing polygonal computer crystal chip,
如果发散不出比较合适的关键词,也可以先在网上收集一些比较贴切的设计参考,在图生图界面下置入参考图片,点击 CLIP 反推提示词,选取里面生成的词汇再输出文生图的 Prompt 中。
四、参数调试
完成 prompt 输出后,我们从事生成调试环节。点击 controlnet 插件,将黑白图片素材拖放至 controlnet,勾选“启动”,“pixel perfect”和“Allow Preview”选项。
新版 ControlNet 1.1 新增 Pixel Perfect(完美像素形式)可以让 ControlNet 自动计算最佳预处理器分辨率,实现与 Stable Diffusion 的完美匹配。
如果没有该选项,可以通过进入扩展选项,点击从网址安装, 复制粘贴以下链接到扩展的 git 仓库网址,安装完后重启界面即可使用。
GitHub – Mikubill/sd-webui-controlnet: WebUI extension for ControlNet
预处理抉择 invert,模型抉择 control_v1p_sd15_qrcode_monster,其他选项保持默认即可。点击中间红色爆炸图标,可以预览反白效果。如果希望最终生成的视觉效果 logo 图形部分以深色为主,则预处理器则可以抉择无。
在 SDXL Styles 界面中勾选“Enable Style Selector” ,Style 中勾选“Digital Art”。
该抉择器可以提供的选项生成不同类型的风格。如果没有该选项,同样可以复制以下链接在扩展中从事在线安装。
网址:https://github.com/ahgsql/StyleSelectorXL
抉择迭代步数,采样方法,宽度和高度,提示次引导系数。宽度和高度这里配置为 512,为了方便快速生成不同效果图。
配置好参数后,点击生成开始抽卡。
在生成的图片中抉择比较符合设想期望的方向。这里以左上角第一张图为例。
我们在随机数种子中输出符合方向的图片种子,并通过高分辨率修复放大图片精度。在高分辨率修复 (Hires. fix)界面中抉择放大算法 ESRGAN_4x,配置高分迭代步数,重绘幅度,放大倍数。迭代步数一般选在 10~20,步数超过 20 可能会出现畸形。重绘幅度一般在 0.3~0.8,根据实际效果调整,如果希望变化更大就调高数值。
点击生成重绘后的图片。
通过 PS 对生成的画面从事简单处理,将画面中心融入更多发光晶体元素。
我们切换到图生图形式,将处理后的图片放到图生图形式从事二次生成。输出与文生图形式一样的 Prompt。配置迭代步数,采样方法,宽度和高度和重绘幅度。
controlnet 参数与前面文生图基本一致。
配置好参数后,就可以点击生成了。在这个过程中,可以根据效果调整重绘幅度,直到生成比较满意的画面。
最终效果。
五、其他中心
使用同样的方法,可以尝试不同设计中心风格。我们以环境为中心,我们输出沙漠相关的 Prompt,比如 Golden sandstorms and floating sand on a black background, ray traced image,
配置基本参数。
Style 可以抉择 cinematic。
配置 Controlnet 参数,可以提高 Control Weight 强度,让图形轮廓更加明显。
完成参数配置后,开始抽卡生成图片。
我们抉择右图从事进下一步生成,在 PS 中从事简单处理调整底部和头部结构,将火焰替换为沙尘效果。
PS 完后我们切换到图生图形式,置入处理后的图片,输出与前面一样的 prompt 和参数配置。
然后就可以点击生成符合期望的最终画面效果啦。
有了主视觉效果之后,相关延展应用就水到渠成,结合信息内容以及根据应用环境对视觉效果从事适配扩充。
结语
以上就是我们在使用 StableDiffuse 辅助品牌视觉延展的制作过程。整体的制作思路可以大概拆解为 6 个步骤:以品牌视觉符号为核心>>提炼中心风格关键词>>使用 Contrnet 控制品牌识别度>>抉择符合方向的画面>>结合图生图形式合成细化画面>>完成最终品牌主视觉。
AI 的出现为我们节省了大量后期制作的时间,让我们可以更快地达成目标,也让我们有更多的空间去探索表现的形式与内容。AI 工具可以决定输出的下限,而设计师的想象力决定了可以触达的上限。合理的借助 AI 尽情地发挥你的想象力去尝试各种可能吧!
其他品牌视觉效果