万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

在开始这篇文章之前,我想先给大家介绍一下我个人学习深入 SD 的学习曲线。先学最基础的,大概理解参数模型提醒词的用途,先把 SD 的流程跑通,这一步大概可以做出来相对看得过去的图了 然后再去研究模型和提醒词的高级用法,比如,混用 lora 模型,提醒词的分步和融合写法,这个时候,必然会涉及到一些原理性的东西,就会理解为什么 AI 画不好手了。到这一步,可以对图进行针对性的优化了,比如说一个图怎么达不到提醒词想要的成效,可以针对性地优化提醒词。 学习其他功能,图生图,Control net 插件,以及分层控制 Lor

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

在开始这篇文章之前,我想先给大家介绍一下我个人学习深入 SD 的学习曲线。

先学最基础的,大概理解参数模型提醒词的用途,先把 SD 的流程跑通,这一步大概可以做出来相对看得过去的图了
然后再去研究模型和提醒词的高级用法,比如,混用 lora 模型,提醒词的分步和融合写法,这个时候,必然会涉及到一些原理性的东西,就会理解为什么 AI 画不好手了。到这一步,可以对图进行针对性的优化了,比如说一个图怎么达不到提醒词想要的成效,可以针对性地优化提醒词。
学习其他功能,图生图,Control net 插件,以及分层控制 Lora 模型等进阶功能。
训练自己的模型

更多Stable Diffusion教程:

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

上一篇文章集中在第一步,这篇文章会讲解一下第二部分和第三部分。没有看上一篇的基础篇的建议先看完上一篇再食用。上一篇文章指路:

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

一、图片对比

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

1. XYZ 图表的利用

XYZ 三维图表是一种用于可视化三维数据的图表。它由三个坐标轴组成,分别代表三个变量。这个工具的作用就是可以同时查看至多三个变量对于结果的影响。具体在 sd 中,xyz 图表可以帮助我们观察到三个变量的变化对图象的影响,以便我们更好的调整参数,如此,我们便对各个参数的作用更加了解,即使以后 sd 更新了新参数,我们也可以在不须要教程的情况下知道该参数的含义。

这项功能可以在 文生图/图生图 界面的左下角中 “脚本” 一栏内选择 “X/Y/Z 图表” 以启用。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

举个例子,我们想要测试采样器(Sampler),迭代步数(Steps)和基础底模型(Checkpoint name)三个变量对图片的影响,点开 X 类型,选择为采样器,Y 和 Z 依次设置为迭代步数和基础底模型。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

在填各个轴数值的时候,将对应的参数以英文逗号隔开便可。以 X 轴的 sampler 为例,我们可以把要对比的采样器的名称复制进去。另外,也可以点击右边的“book”图标,加载本地所有的采样器,然后删除掉不须要的便可。在填 Y 轴的迭代步数时,除了可以直接输出数值外,也可以采用另外两种体例来写。

起点-终点(间距),例如:20-50(+10)就表示,从 20 到 50,每一步加 10。
起点-终点[步数],例如 20-50[4]就表示,从 20 到 50,一共四步。

这两种体例的成效都与直接输出“20,30,40,50”等效。

最终我们会得到一个这样的网格图。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

这里还有一个小技巧,如果我们觉得图与图之间没有间隔,混在一起不好区分,可以调整这里的数值,来增加图与图的间隔。将这里的间隔调整为 12 后成效以下:

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

2. 提醒词矩阵

①基本利用体例

在许多情况下,一大串从网络上抓取的提醒词在某些模型中表现良好,但在更换模型后可能就无法利用。有时候,一些看似无用的提醒词被移除后,画面的感觉会变得怪异,不清楚到底是哪里受到了影响。这时候,就可以利用 Prompt matrix 来深入探究原因。与之前介绍的 X/Y/Z plot 相比,Prompt matrix 的利用体例相似,都可以生成一组图表,但它们的设置体例有很大的差别。

我们举个例子来说明这个脚本的利用方法:

例如我们在别人的提醒词中看到了这两个词:dutch angle,autumn lights,翻译过来是倾斜的角度,秋天光影,每个字都懂,但是我们还是无法知道这些词对图象的影响。

1)首先我们把选择提醒词这个部分选中正面。(默认就是选中正面,不须要去更改)。其他参数我们保持默认便可。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

2)接下来我们将两个词填入正向提醒词中,这里的格式是“|测试提醒词 1|测试提醒词 2”。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

在上面的这个图中,第一行的提醒词会被用在每一张图上,第二、三行被“|”分割的提醒词,会被当成矩阵提醒词,交错添加在最终的图上。

3)然后,我们可以产出这么一张图。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

左上角的第一张图,就是什么额外提醒词都没加的状态,它第二列的图,则全都是添加了“dutch angle(倾斜角度)”这个提醒词的成效。第二行则是都增加了“autumn lights(秋天光影)”提醒词的成效。而最右下的,就是倾斜角度与秋天光影全部提醒词都有的成效。 这样你就能很清楚地看到,各种提醒词交互叠加起来的成效。

②进阶利用

提醒词矩阵不止一次可以对单个词进行测试,还可以将一组词组合在一起进行测试。例如:

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

以此作为提醒词产出的图以下:

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

二、图片微调

在完成最终的绘图后,有时我们可能会发现一些小问题,或者想要微调画面。这时,我们可以利用“变异随机种子”来实现。

以这样一张原图为例:

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

首先,我们先将随机种子确定,然后将这里勾选后,下面的子参数“变异随机种子”会被打开,变异幅度越大,最终的图与之前的图的区别越大。一般来说,我们会把这个值调整为 0.3,当然,这里也可以借助上面介绍过的 xyz 图表进行尝试,找到一个最合适的值。另外,我们可以把批次数提高,找到最合适的结果。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

最终,我们可以得到这样的结果。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

三、图片缩小

由于显存大小的限制,通常我们只能在出图时生成 512*512 大小的图象。然而,这个大小的图象通常不够清晰,即使进行高清修复,也只能将分辨率提高到 1024*1024。如果我们强行将分辨率改变为 2000 以上,要么显存直接爆掉,无法生成图象,要么生成的图象会出现各种奇怪的问题。

为了解决这个问题,我们可以利用“multi diffusion”插件来缩小图象。这是目前图象缩小的最佳解决方案,可以在缩小图象的同时补充细节。

1. 插件的安装

一般来说,在秋叶的整合包中已经自带了这个插件。如果没有的话,点击扩展→从网址安装→重启UI便可。

网址:https://github.com/pkuliyi2015/multidiffusion-upscaler-for-automatic1111

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

2. 插件的利用

①利用前的准备

去掉正向提醒词中的有实际意义的部分,只留下例如”highres, masterpiece, best quality, ultra-detailed 8k wallpaper, extremely clear”的词汇。由于这个插件的原理是对大图进行分块绘制,如果在正向提醒词中加入了具体对象,会使得这个对象遍布在图象的各个区域。
「可选」把提醒词引导系数调大,例如调到 15 左右,经过我的测试,成效是要好于 7 的,但是差别不大。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

3. 插件参数设置

我们首先将要生成的图发送到图生图下,将页面往下滚动,找到这两个标题,并点击右侧的箭头展开设置项。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

①Tile Diffusion 参数设置

我们只须要调整以下五个参数便可,其他参数保持默认便可。

缩小算法:真人图象用 4x+,二次元图象用 4x+anime。

缩小倍数,即最终图象相对于原图的缩小倍率。

renoise stength 推荐“0.3-0.6”之间。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

②Tiled VAE

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

首次利用时点击 reset,系统会自动计算出最适合当前电脑配置的编码器区块大小和解码器区块大小。然后如果缩小后的图颜色失真,勾选压缩编码器颜色修复便可。

最后,我们点击生成便可。

从右下角的图片信息可以看到,我们已经得到了 2k 的图。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

并且在原比例显示时,也是非常清晰的。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

四、提醒词进阶

在之前的文章中,我们介绍了提醒词的基本语法和撰写体例,在这里我们要介绍一下更进阶的语法和利用体例。

1. 提醒词的顺序

先说结论:越重要的提醒词应该放到越靠前的位置。

这里做一个测试,1girl,1cat

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

可以看到,当 cat 这个提醒词在前时,猫的细节明显多了很多,而且甚至 AI 将猫耳的元素加到了人物身上。

结论:Prompt 的顺序会影响画面的组织体例,越靠前的 Prompt 对构图的影响越大。虽然本次试验只涉及一个场景,但在更多的后续探究和复杂场景构建中,这种影响的有效性已经得到证明。然而,它并非绝对有效,在某些情况下或者较为复杂的场景中,这种规律可能会失效,但总的来说,遵循这个规律写提醒词更容易获得自己想要的场景。

2. 分步描绘

有时候,在特定的情况下,你可能希望一个提醒词在计算过程中持续到达到 X%时停止,或者在达到 X%时才加入,或者在开始时利用提醒词 A,然后在达到 X%时切换到提醒词 B。在这种情况下,SD 提供了这样子功能的语法:

[A:B:number] 表示:A 提醒词跑到 number 之后换成 B 提醒词

[A:number] 表示:A 提醒词跑到 number 之后才开始加入

[A::number] 表示:A 提醒词跑到 number 的时候停止利用

我们来看一个例子:

假设你想画一位穿着白色毛衣和橘色皮衣的女孩,并测试不同比例的 Prompt 的成效,你可以尝试以下体例:

[White sweater:orange Leather coat:0.2]

这意味着前 20%的图象利用“白色毛衣”提醒词进行绘制,剩下的 80%则利用“橘色皮衣外套”提醒词继续绘制。

同样,[White sweater:orange Leather coat:0.5]表示在绘制到一半时,提醒词从“白色毛衣”转换为“橘色皮衣外套”,而 [White sweater:orange Leather coat:0.9] 则表示在绘制到 90%时才切换到“橘色皮衣外套”。以下是成效对比:

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

3. 融合描绘

语法是:[提醒词 A|提醒词 B]。

这种用法非常罕见,基本上就是在每个回合中不断轮流利用提醒词,成效会变得难以预测。例如,下图利用了这样的提醒词,[black hat|red hat]是黑帽和红帽提醒词交替利用,但实际上生成的帽子并没有真正变成红黑相间,而是黑底帽子带有了红色装饰。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

笔者建议,这种用法慎用,可控程度相当低,很容易出现奇奇怪怪的图。

4. 反向提醒词的进阶用法

反向提醒词的高级用法不仅仅是写一些低质量的提醒词,还可以写一些与正向提醒词相关但不须要的提醒词。例如,在正向提醒词中,上半身通常会默认绘制手,但是我们可以将手写入反向提醒词中,从而达到更加自由的绘制成效。

5. 借助 ChatGPT 写提醒词

在编写提醒词时,我们可能会遇到不知道如何描述一个场景的情况。例如,我们想要绘制一张女孩在咖啡馆里看书的画面,但不知道如何描述这个场景。这时,我们可以借助 ChatGPT 来提供灵感,打开思路。

具体操作以下:首先给 ChatGPT 一个基本的提醒,让它帮助我们产生画面描述。

我这里的基本提醒以下:

假设你现在是一个创意插画师,接下来我会给你一些提醒,你须要以这个提醒为依据,去组合想象生成一副插画的语言描述,请注意,不允许用长句,尽可能用词汇,其次是短语。另外尽可能多地合理地去补充场景中对人或风景的细节和特征,不少于 5 处,例如主体的衣着,长相,姿势,背景的花草树木等,尽可能的帮我补充这些我没有提到的细节,整体内容丰富一点。

大家可以直接复制,也可以在此基础上加入一些其他细节。

之后,我们输出一个简单的场景描述,例如“女孩坐在咖啡馆”,ChatGPT 就会给出对应的画面描述,接下来,我们从中提炼出重要的提醒词便可。

另外,我们还可以将借助一些 ChatGPT 的软件或浏览器插件,将这个保存成一个模板,以后我们须要时直接输出我们的画面便可,不须要重复输出基本提醒。

以 iOS 上一个叫“Chitchat”的软件为例:(chitchat 的工作人员看到后,请给我广告费)

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

在这部分的最后,额外补充一个知识点:ChatGPT 的提醒语句式:

“假设你你现在是 XX 专家,须要做 XXX,请注意:要求 1,要求 2”,利用这样的句式会让 ChatGPT 的成效大幅提升。这个不是本文重点,这里不展开详述。

5. 提醒词管理

在开始之前,我想先说一下为什么推荐这样做。虽然网上有很多所谓的提醒词大全,但我不建议直接替换自己的提醒词管理,原因以下:

我们不须要那么多的风格,过多的提醒词会增加利用成本和管理难度。
我们不知道未经利用的提醒词具体会给图片带来什么变化。

正是出于这样的考虑,我不想分享所谓的“海量优质提醒词”,我认为这些东西的噱头价值大于实际意义,收藏后很可能就会被遗忘。授人以鱼不如授人以渔,我希望大家学会的是一种有效的提醒词管理方法。

这里推荐一个网站: https://moonvy.com/apps/ops/ ,我们可以在这里对我们的提醒词进行管理。

利用方法可以参考这个视频: https://www.bilibili.com/video/BV15N411P7D3/?vd_source=bd8f1862d445f4e01d7c1f49857dd474

五、ControlNet插件

现在的 AI 绘画技术主要采用了一种名为扩散模型的方法,这种方法能够使生成的图片呈现出独特且富有趣味性的成效。然而,这种方法也存在一个显著的问题,那就是生成的图片可控性非常差。在某些情况下,生成的图片可能会非常精美,而在其他时候,成效却可能不尽如人意。这使得设计师在利用此类工具时,很难确保能够满足客户的具体需求。

然而,随着一种名为 ControlNet 的新技术的出现,这一局面得到了改善。ControlNet 能够帮助设计师更好地控制 AI 绘画过程,从而使这个工具更加符合他们的实际工作需求。AI 绘画不再仅仅是一个供人们娱乐的小玩具,而是逐渐发展成为一种能够真正帮助设计师提高工作效率的实用工具。虽然目前 ControlNet 的可控性仍然有待提高,但与之前的技术相比,它已经实现了质的飞跃。

Controlnet 插件的本质是利用图象作为输出信息的体例,以弥补语言在某些情况下的局限性。相对于语言而言,图象更加直观、简洁、易于理解,能够更加准确地传达信息。因此,Controlnet 利用图象作为输出体例,可以更好地帮助 AI 理解我们的需求,从而生成我们所须要的图片。

在图片中,包含了多种信息,例如线条轮廓、表面凹凸等。Controlnet 插件的工作原理是利用特定的模型提炼出特定的图象信息,然后将其输出给 AI,引导 AI 生成图片。

总的来说,我们可以将利用图片作为提醒词视为补充语言的体例。这里补充一下,在文生图和图生图中用 controlnet 插件的区别,一句话说明白,须要生成新的图片用文生图,在原有图片上优化利用图生图。

1. 插件安装与模型下载

①插件安装

一般来说,网上的整合包已经包含了 controlnet 插件,不须要额外安装。

安装体例:

选择到从网址安装: https://github.com/Mikubill/sd-webui-controlnet (推荐)
可以直接去这个链接这里下载 https://github.com/Mikubill/sd-webui-controlnet/archive/refs/heads/main.zip ,然后解压到 extension 文件夹

②模型下载

我们可以直接去 https://huggingface.co/lllyasviel/ControlNet-v1-1下载对应的模型 ,把这些后缀为 safetensors 的文件下载下来,然后放到这个文件夹中便可。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

2. 利用

①基本利用流程

这里以最常用的 canny 模型为例,模式选择文生图,canny 模型的作用就是提炼出图片的线条信息并输出给 AI。

在界面最下面找到 controlnet 的插件,点击右边箭头展开参数,将这四个选项全部启用。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

然后将预处理器和模型全部选择为 canny,这里要注意,前面的预处理器与后面的模型要对应。接下来点一下这个爆炸的 icon,在右边会显示所提炼出的线条信息。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

下面的那些参数我们先保持默认不变,接下来,修改采样器为 DPM++2M Karras,总批次数修改为 4,基础底模型改为“cetusMix_Coda2”,并且填入以下的提醒词:

正向提醒词:masterpiece, best quality, ultra detailed, A girl, cute, light smile, black hair, purple eyes, yellow clothes, standing, outdoor, long sleeves,

反向提醒词:nsfw,(watermark),sketch, duplicate, ugly, huge eyes, text, logo, monochrome, worst face, (bad and mutated hands:1.3), (worst quality:2.0), (low quality:2.0), (blurry:2.0), horror, geometry, badpromptv2, (bad hands), (missing fingers), multiple limbs, bad anatomy, (interlocked fingers:1.2), Ugly Fingers, (extra digit and hands and fingers and legs and arms:1.4), crown braid, ((2girl)), (deformed fingers:1.2), (long fingers:1.2),(bad-artist-anime), bad-artist, bad hand

然后我们点击生成便可。可以看到,最终生成的图片是在初始的真人的基础上生成的。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

3. 具体参数介绍

低显存模式:如果你的显卡内存小于等于 4GB,建议勾选此选项。

完美像素模式:勾选后,controlnet 会自动去匹配适合的像素大小。

允许预览:勾选后,点击爆炸 icon,在图片右边会展示所提炼的图片特征信息

控制权重:可以调整该项 ControlNet 的在合成中的影响权重。

引导介入步数&引导终止步数:controlnet 对最终生成结果的控制步数范围比例。Guidance strength 用来控制图象生成的前百分之多少步由 Controlnet 主导生成。Guidance Start(T) 设置为 0 即代表开始时就介入,默认为 0,设置为 0.5 时即代表 ControlNet 从 50% 步数时开始介入计算。

canny low threshold & canny high threshold

更高的阈值下,所提炼的线条更少,更低的阈值下提炼的线条更多。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

控制类型:更遵循提醒词,更遵循 controlnet 输出的图象特征,或者均衡。

①常用模型介绍

除了上面利用的 canny,还有几个常用的模型,我在这里给大家介绍一下其他模型的用途。

Depth

通过提炼原始图片中的深度信息,获得前后景的关系,可以生成具有同样深度结构的图。一般用于提炼物体边缘轮廓,没有物体内部的细节。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

以这个模型为引导,生成的图片以下:

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

Lineart

与 canny 类似,该模型对线稿的处理能力极为优秀。同样也是将图形提炼成线稿,然后在此基础上进行上色与细节补充。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

MLSD

该模型通过分析图片的线条结构和几何形状,来构建出建筑外框,适合建筑设计的利用。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

Normal

适用于三维立体图,通过提炼图片中 3D 物体的法线向量,绘制出的新图与原图的光影关系完全一致。此方法适用于人物建模和建筑建模,但更适合人物建模。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

hed(边缘检测算法):

canny 提炼线稿更硬朗,hed 提炼的线条更圆润

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

OPENPOSE

根据图片生成动作骨骼中间图,然后生成图片,利用真人图片是最合适的,因为模型库利用的真人素材。

目前已经有五个预处理器,分别是 openpose,openposefull,open posehand,openposefaceonly,openposeface,这五个预处理器分别可以识别身体姿态,姿态+手部+脸部,身体+手部,仅脸部,身体姿态+脸部。

我们这里以身体姿态为例,

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

上图中右边便是 openpose 提炼出来的人物骨骼图,以此引导生成的图象以下,可以看到,图象里人物的姿势都与原图保持了一致。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

这里顺便给大家推荐一个网站: https://escalalatina.com/mujeres/sentada-azul-naranja/ ,可以从这里面下载人物的不同姿势的图片。

Segment

语义分割模型,标注画面中的不同区块颜色和结构(不同颜色代表不同类型对象),从而控制画面的构图和内容。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

如上右图所示,每个色块代表不同的含义,完整的色块释义对照表以下:

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

原图文件链接以下: https://cowtransfer.com/s/3a5fc9e578ab44 ,各位自取便可。

在这个模型下,我们可以更自由地控制图片的生成。例如我们想要添加一个人,将预处理后的色块图下载后,在 PS 中添加一个人物轮廓的色块,颜色从表格中获得。然后再导入到 controlnet 中,注意这时预处理器要选择无,后面依旧选择 seg,如图所示。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

再次点击生成后,可以看到,图片按照我们的要求在中下部添加了一个拿箱子的人,并且由于我们选择的模型是二次元的,所以生成的图片也是二次元的。但整体的结构是遵循我们的指令的。

万字长文!从零开始带你进阶AI绘画神器Stable Diffusion

六、常见问题

这里整理了一些大家在利用 stable diffusion 过程中遇到的常见问题,希望可以帮助到大家。

1. Vae 模型是否必须要有?

不须要,现在的大模型很多已经自带了 vae 模型,我们即使不利用额外的 vae 模型也可以得到比较好的成效

2. 大模型和 lora 是否必须对应?

这个是不须要的,并且甚至我们可以对 lora 模型混搭利用。例如:

3. 我明明描述的是一个人,最终图象却生成了多个人?

一般来说多人的问题,大概率是图象尺寸过大,或者比例不对导致的。

为什么会出现这样的问题呢?这要从 stable diffusion 的底层训练集说起,stable diffusion V1.5 的版本其实是基于 512×512 图象上进行微调的。当我设置的图片尺寸远大于 512×512,或比例与 1:1 相差过大时,SD 就会采用提醒词中的部分进行填充,所以会出现多人或多头的情况。

解决方案:

a. 多抽卡。最直接的方案,生成很多张图,把多人或多头的图片扔掉,但是这种方案很浪费算力。

b. 尽量保持文生图时,直接生成的图象比例和尺寸在 1:1 和 512×512 左右,须要缩小时采用文章中提到的措施进行。

4. 无法生成全身照,尽管我添加了“full body”这种词。

a. 利用 512*768 这样的纵向比例的图。

给TA打赏
共{{data.count}}人
人已打赏
应用

Dora AI !一句话生成可交互、可编纂网站的 AI 神器

2023-5-19 7:48:32

应用

这10个冷门但实用的AI对象,让设计师工作效率提升200%!

2023-5-22 7:18:37

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索