AI绘画
大厂出品!如何用 ControlNet 实现精准的画面色彩控制?
颜色控制一直是 AIGC 的难点,prompt 会污染、img2img 太随机… 今天带来利用controlnet,实现对画面颜色的有效控制。都说AIGC是抽卡,但对把它作为工具而非玩具的设计师,必须掌握如何控制它,让我们一起开始可控AI生成。
更多相关干货:一、想给 AI 点颜色瞧瞧,怎么这么难
大家或许已经通过各种《三分钟包会》《五分钟出道》的教程,可以手拿把掐的将一张商品图,完美植入需要的背景中。客观的说,无论从角度、投影、还是商品与背景的语义关系,以下都能算是合格的图片。但是作为视力 255³的设计师,总能
效率暴涨!5 款设计师必备的 Stable Diffusion WebUI 模型(三)
大家好,这里是和你们一起探索 AI 绘画的花生~
今天继续为大家推荐 5 款优质的设计类 Stable Diffusion WebUI 风格模型,包含电商设计、产品摄影、矢量扁平插画、古风工笔等多种风格。一、设计 | 电商展台
一款非常优秀的电商展台设计模型,包含极简、国风、科技、风景等多种风格,适用范围很广,质感也很棒,生成的图像非常适合作为电商、产品的背景设计素材。模型类型:XL Lora (安装路径:models\Lora)
下载地址: (附件有资源包)
推荐设置:生成步数:35-40;尺寸 768-128
AI 做海报都这么厉害了?设计师不容错过的 DALL·E 3 进阶玩法~
大家好,这里是和你们一起探索 AI 绘画的花生~
OpenAI 新发布的文生图模型 DALL·E 3 已经在 ChatGPT Plus 中推出一段时间了,网上玩 AI 绘画的大神们对它的图像生成功能给出了很高的评价,并且分享了一些很棒的使用思路,对于我们做设计来说也非常有帮助,今天就一起来看看 DALL·E 3 的一些进阶用法。
上期回顾:在 DALL·E 3 还未正式上线之前,我已经写文章给大家介绍过了它的一些优势,比如可以精准生成提示词中提到的所有细节、生成正确的文本内容以及保持图像中人物的一致性等,这些优势的
超详细的 Stable Diffusion ComfyUI 基础教程(四):图生图流程
想一下,在我们使用 web UI 图生图的时候,他比文生图多了什么,是不是多了个加载图像的位置。
我们怎么才能把图片转成可以被识别的信息呢,我们需要把图片解码成可以被识别的信息。
上期回顾:一、创建流程
1. 同样,我们先打开文生图基础流程,我们这个基础上把图生图流程加进去;
2. 我们“右键——新建节点——图像——加载图像”,然后把图片传上去;
3. 我们在加载图像上鼠标点击住“图像”往外拉,松开然后选择“VAE 解码”;
4. 我们再把“VAE 解码的 Latent”和“采样器的 Latent”链接,“VAE”
图片尺寸不合适?3 款 AI 神器帮你免费无缝拓展!
大家好,这里是你们的 AI 神器小助手花生~
在处理图片素材时,大家有没有遇到过尺寸不合适但又不能裁切的情况?是不是也想过图像要是能自己“长”出一块就好了?这种要求在以前或许很难实现,但生产式 AI 技术出现后它就不再是问题了,今天就为大家推荐 3 款可以免费实现图像无痕拓展的 AI 神器,一起来看看吧~
上期回顾:一、Cliprop - Uncrop
链接直达: (Google 邮箱登录后使用)
Clipdrop 是我之前向大家推荐过很多次的 AI 图像处理工具了,它的 Uncrop(未裁切) 功能就可以对图像
如何用AI完成甲方需求?实战案例来了!
AI 设计=牛!
AI 作为还在进步的智能工具,其功能不是万能的,对于每个使用过的用户来说也是早有体会了,所以如何高效的将 AI 辅助应用于设计呢,那就是看项目内容是否切合 AI 擅长的部分。
这不最近来了一个新需求,需要做一组周年 H5,每个界面要求就是简约,清新,并有一个主体元素点缀。
好嘛,这不是撞到 AI 的心巴上了吗,AI 对单体元素的生成调试已经比较成熟了,再加上简单的背景装饰和渲染就能完成。
先上完成图:以上的 H5 页面主体元素全部由 AI 生成,是不是很 6,但是 AI 一开始生成的元素图片是这样
Adobe发布新模型Firefly Image 2!新增6大功能,可免费使用
大家好,我是花生~
10 月 10 日备受瞩目的 Adobe Max 2023 大会正式召开,在序幕活动中,Adobe 推出了 3 款新的生成式人工智能模型 —— Firefly Image 2 Model (第二代萤火虫图像模型)、Firefly Vector Model (萤火虫矢量模型)和 Firefly Design Model(萤火虫设计模型),这些新模型将与 Adobe Photoshop、Illustrator 和 Express 工具结合,赋予设计师更强大更智能的生产力。
其中文生图模型 Firef
Stable Diffusion Art!百科全书式AI绘画教程网站
大家好,这里是和你们一起探索 AI 绘画的花生~
Stable Diffusion 是目前非常受欢迎的 AI 绘画模型,想必很多小伙伴都用过它。今天为大家推荐一个非常棒的 Stable Diffusion 免费教程网站 Stable Diffusion Art,里面包含系统的新手入门引导、多种进阶教程以及对专业概念解释,非常适合刚接触 Stable Diffusion 小伙伴。
上期回顾:Stable Diffusion Art 简介
网站链接直达:
Stable Diffusion Art 的网站内容主要可以分
从宏观视角,聊聊AIGC对设计行业的影响与启发
自 2022 年下半年开始,席卷而来的 AIGC 对设计工作者带来不小的冲击,设计本是一个“GC”生产内容的岗位,AI 生产内容有什么不同?如何理解一波浪潮的发生逻辑及影响,如何用好 AI 工具帮助我们生产内容,是群核设计团队的新课题。目前有了一定的成果和观点,今天跟大家一起分享与交流。
本文将从宏观角度来聊聊这一轮 AI 对设计行业到底有什么影响,对我们有什么启发?
更多AIGC 的应用:一、了解今年狂飙的 AI
现如今 AI 火热体现在 3 个方面:生成式 AI 到了技术发展从开始走向期望的膨胀期,现象级产品已
AIGC大厂实战!京东城市消费券项目完整复盘!
随着 AI 图像生成技术的高速发展,以 Midjourney、Stable diffusion 为例的 AI 工具引起了大家广泛的研究和应用浪潮,也印证了早期流传在 AIGC 圈的一句话“任何行业都值得用 AI 重新做一遍”。面对时代趋势,团队早在 22 年底就开展了 AIGC 在「电商行业领域」的研究和探索,旨在运用新技术帮助团队提升工作效率和质量,高效地解决业务难题。
更多AIGC实战案例:1. 业务背景
23 年初我们团队接到城市消费券的业务需求,业务同学希望快速推动支付券向东券转移,通过产品及活动页面运营,
超详细的 Stable Diffusion ComfyUI 基础教程(三):Refiner 细化流程
前言:上节课我们学习了文生图的基础流程,接下来我们玩个复杂的,把 refiner 模型串联进去。
那我们想一下,refiner 模型的工作流程是什么样的呢,使用 refiner 模型的时候我们比基础流程多了哪些操作呢?
是通过 base 模型绘制一部分后,然后使用 refiner 模型进行绘制。多了 refiner 模型加载器,多了 refiner 模型切换时机。上期回顾:一、创建流程加载 refiner 模型:
我们先把上节课的流程打开,在空白地方(文生图下方就可以,不要太远)添加一个 Checkpoint 加载
万字干货!一口气掌握14种 ControlNet 官方控图模型的使用方法!
在上一篇里我已经为大家介绍了关于 ControlNet 的基本功能、安装和使用技巧,相信大家对这款神级插件已经有了基本认识,今天我会为大家更详细的介绍 14 种官方控图模型的差异和使用技巧,以及最近刚面向 SDXL 更新的社区模型。一、官方模型和社区模型
前文我们提到 ControlNet 模型是由张吕敏开源的,目前开源的模型包括以下这 14 种,作为 ControlNet 的布道者,我们可以将这些称之为经典的官方模型。
官方模型下载地址: ,但最近新的 SDXL 大模型发布后还没有做适配,之前的 ControlN
AI绘画神器 Fooocus 2.0 来啦!出图质量升级+新增4大实用功能!
大家好,这里是和你们一起探索 AI 绘画的花生~
之前为大家推荐过一款融合了 midjourney 和 stable diffusion 优点的 AI 绘画工具 Fooocus,它用的是开源的 SDXL 1.0 模型,可以免费生成高质量的图像,同时操作界面又如 Midjourney 般简单,受到很多 AI 绘画爱好者的喜爱。最近 Fooocus 升级到了 2.0 版本,不仅图像生成质量有了大幅提升,还新增了生成变体、高清放大、局部重绘、外绘拓展功能,今天一起看看如何使用这些新功能。
上期回顾:一、Fooocus 2
AIGC大厂案例实战!如何用AI完成虚拟演播厅的设计方案?
相信大家已经看过很多 AI 辅助设计流程的文章,AI 正在渗透着各行各业。
本文主要介绍如何通过 AI 工具辅助游戏虚拟演播厅视觉概念稿,通过 Midjourney 和 Stable Diffusion 的组合,实现项目快速落地。
更多AI实战案例:一、拆解主题元素
首先需求方提出这次的主题“龙虎争霸”,希望有对抗的氛围。经常做演播厅的同学应该知道,演播厅常分为三个部分:解说区域,背景板区域以及背景。
对此,我们可将区域拆解分开制作,提高效率。先根据主题和 KV 构思下场景的组成:龙,虎和山海,国风的主题比较贴合。
超详细的 Stable Diffusion ComfyUI 基础教程(二):文生图基础流程
前言:
1. 这节课我们开始学习 ComfyUI,我们先从最基础的文生图开始学起。为了方便讲解(方便我这英语不好的人),我文章中的节点大多都是汉化之后的,和我一样英语不好的小伙伴还请看我上篇内容,安装汉化插件。
上期回顾:2. 在学习前我们先回忆一下使用 Web UI 进行文生图的时候用到了哪些功能。3. 是不是有大模型、正向提示词、反面提示词、采样器、步数、宽高、VAE、显示图像。既然我们知道有哪些节点,就把他们按照流程去连起来吧。
一、创建流程
大模型加载器:
1. “右键——新建节点——加载器”我们会看到很多
可能是目前最强的AI绘画神器!文生图模型 DALL·E 3来啦!
大家好,这里是和你们一起探索 AI 绘画的花生~
9 月 21 号 OpenAI 在官网上线了 DALL·E 3 的介绍页面,它是一款新的文生图模型,可以根据文本提示词生成各种风格的高质量图像。DALL·E 3 的上一代是去年 4 月份推出的 DALL·E 2,出现时同样因为强大的图像生成能力引起过广泛关注。时隔一年半,新推的 DALL·E 3 有哪些方面的提升?与 Midjourney、Stable Diffusion 等 AI 绘画工具相比又有哪些不同?今天就带大家一起了解。
了解 DALL·E 2 模型:一、
AIGC如何应用到实战?收下大厂的5500字复盘经验!
前言
近年来,随着人工智能技术的迅猛发展,文心一言、ChatGPT、Midjourney、Stable Diffusion等生成式AI工具已崭露头角。它们正在默默地改变着我们的生活和思维方式,同时也影响了运营活动类设计方法。通过输入指令、图片和相关信息,这些工具能快速生成满足活动需求的创意内容,显著提升工作效率和设计多样性,同时缩短了活动制作周期,为设计师提供更多的创新时间。
更多AI应用案例:紧随生成式 AI 技术潮流,我们将大型活动与 AI 融合,暑期活动成为 AI 实践的关键项目之一。每个活动包括前期设定探索
超详细的 Stable Diffusion ComfyUI 基础教程(一):安装与常用插件
前言
相信大家玩 Stable Diffusion(以下简称 SD)都是用的 web UI 操作界面吧,不知道有没有小伙伴听说过 ComfyUI。
ComfyUI 是 一个基于节点流程的 Stable Diffusion 操作界面,可以通过流程,实现了更加精准的工作流定制和完善的可复现性。每一个模块都有特定的的功能,我们可以通过调整模块连接达到不同的出图效果。但节点式的工作流也提高了一部分使用门槛。同时,因为内部生成流程做了优化,生成图片时的速度相较于 webui 有明显提升,对显存要求也更低(4G 就能很好的运行