AI在线 AI在线

无敌了!Midjourney 外部图像编辑功能上线,支持 Controlnet 深度控制

作者:夏花生
2024-10-25 08:22
大家好我是花生~. 预热许久的 Midjourney 外部图片编辑功能终于上线了! 做为目前最强大的 AI 绘画工具之一,Midjourney 在图像质量、风格质感、功能便捷性等方面的表现都是顶尖的,但它一直无法准确控制生图内容、也不能上传本地图像进行二次编辑,想必是很多人的痛点。

无敌了!Midjourney 外部图像编辑功能上线,支持 Controlnet 深度控制

大家好我是花生~

预热许久的 Midjourney 外部图片编辑功能终于上线了!做为目前最强大的 AI 绘画工具之一,Midjourney 在图像质量、风格质感、功能便捷性等方面的表现都是顶尖的,但它一直无法准确控制生图内容、也不能上传本地图像进行二次编辑,想必是很多人的痛点。

而此次新上线的编辑版块一次性解决了这 2 个问题,不仅支持修改、拓展本地图像,还支持基于深度控制生成图像,也就是说我们可以在 Midjourney 中使用 controlnet 了,一起来看看新功能的效果如何吧~

相关推荐:

10分钟速成!Midjourney 网页版操作指南

推荐阅读 前言 哈喽大家好,我是猫仔,Midjourney 终于推出自己平台的 alpha 版本,以后不用 Discord 也能用 MJ 生成图片了,应该有一些小伙伴已经试用过,本篇文章,我会带着大家详细了解下 Midjourney 网页版的操作方法。

阅读文章 >

一、编辑功能使用介绍

Midjourney 官网: https://www.midjourney.com/

先说一下,新的编辑功能并不是完全公开的,目前只对部分人群开放,分别是年度会员、生成超过一万张图片和连续订阅超过 12 个月的会员。满足这三个条件中的任意一个,就能在 Midjourney 官网中看到新编辑功能的入口。

图像支持通过「互联网链接」和「本地上传 」2 种方式。图像上传后,可以进行 「Edit 编辑」和 「Retexture 重绘」两种处理。

无敌了!Midjourney 外部图像编辑功能上线,支持 Controlnet 深度控制

我先测试了 「Retexture」功能,虽然名字是纹理重绘,但本质上类似于 Controlnet 的深度控制功能,会保留原始结构,然后根据提示词重新绘制画面,从而得到新的内容、风格、材质,这项功能对释放 Midjourney 的模型潜力非常有用。

我上传了一张之前在 Midjourney 中生成的扁平卡通插画,然后在提示词中加入了 3D Pixar cartoon style、Clay Style 等关键词,最终成功将其转换为了 3D 风格,整体效果非常精准。

无敌了!Midjourney 外部图像编辑功能上线,支持 Controlnet 深度控制

熟悉 AI 绘画的小伙伴可能已经想到了很多该功能应用场景,2D 插画转 3D、手绘线稿转实物图、线稿上色、建筑/家居图重绘、3D 白模 AI 渲染等等。

以前这些功能需要在 SD 中进行,通过 Controlnet + 对应风格的模型实现,而现在可以直接在 Midjourney 中一步完成,而且只需通过提示词+参数,就能实现各种风格材质的高质量出图,再也不用花时间去找模型了,这会让相关工作流更高效便捷。

了解更多 AI 绘画落地应用场景:

AIGC如何应用到工作中?我做了3个实战案例!

本文主要通过在工作中使用Midjourney绘图的3个实际案例,来解析AIGC的落地流程。

阅读文章 >

然后是「Edit」功能,支持对外部图像进行局部重绘和外绘扩展。

依旧是先上传一张图像,目标是将小女孩穿的花裙子换成了黄色裙子。先用画笔将需要涂抹出需要重绘的区域,然后在提示框中填写引导词 “a cute girl with a long yellow dress, standing on the grass in the park”,最后点击提交。

MJ 的重绘的速度非常快,处理效果也很好:重绘的区域不仅与原图无缝衔接,在色调、光照等方面也能做到一致。

无敌了!Midjourney 外部图像编辑功能上线,支持 Controlnet 深度控制

然后是外绘拓展功能。上传图像后,可以在左下角的 Aspect Ratio 中选择需要想拓展的尺寸,或者直接用鼠标拖动图像四边的灰色小短杠,手动拓展画布。选择 「Move/Resize」可以调整原图的尺寸和位置,提示词需要完整描述原图或需要添加的内容。

我将原本的方图拓展成了 9:16,同时扩充上下两边,效果非常惊艳。Midjourney 不仅正确延展了画面顶部的虚化的森林背景,连底部裙子的花纹、草地的纹理和光照细节也填充的毫无痕迹,一次处理的 4 张图像效果都很好,实在令人惊喜。

无敌了!Midjourney 外部图像编辑功能上线,支持 Controlnet 深度控制

图像处理好后,点击左下角的 「Download Image」可下载图像到本地,或者点击 「Upscale」放大图像,然后在 Create 或 Organize 版块查看放大结果。

二、使用技巧

「Edit」功能支持连续多次编辑,比如在重绘人物的衣服后,可以继续在新图的基础上涂抹+修改太提示词,为人物加上帽子或者其他内容。局部重绘和外绘拓展可以同时进行,这样就不用分两步操作了,更加方便。

无敌了!Midjourney 外部图像编辑功能上线,支持 Controlnet 深度控制

然后在「Retexture」中,由于它只会借鉴深度结构,所以在使用时,如果想让新图与原图内容相似,就需要准确细致都描述画面的元素、颜色等细节,否则 AI 会无法正确识别。此外在写提示词的时候,我们还可以加上参数,包括个性化(--p)、风格参考(--sref)、角色参考(--cref) 和 图像提示(image prompt),获取更好地效果。

比如在加上 --p 参数之后,重绘生成的图像风格就会发生改变;如果再加上 --sref 风格代码,就能指定生成某种固定的风格;也可以直接上传图像做为风格参考。因此对于同一张图,可以用多种方式让其演化出超多风格变体。

无敌了!Midjourney 外部图像编辑功能上线,支持 Controlnet 深度控制

目前外部编辑功能算是处于测试阶段,官方设置了比较严格的预防监管措施,所以一些正常的提示词也可能会被提示无法生成,比如我试过了不能用 “Disney”这个词(不亏是地表最强法务部),需要删除后才能继续。

而如果被检测到存在可以违反规定的滥用行为,可能导致账户被暂停或封禁,并且不退款,所以大家使用的时候还是要小心。

三、Ideogram 新功能 Canvas

了解 Ideogram 2.0: https://www.uisdc.com/ideogram-2

就在 Midjourney 更新功能的前一天,另一款 AI 绘画神器 Ideogram 也上线了一项新功能 Canvas。它支持在原图的基础上,任意进行拓展、局部重绘、风格转换功能,效果也非常不错,和 Midjourney 的外部编辑功能类似。

而且 Ideogram 本身的文本渲染、排版设计能力就很强,再结合 Canvas 功能,就能随意在画面中添加、编辑英文文本内容,对设计师来说非常方便,大家也可以去尝试一下。

上一次 Ideogram 新的 2.0 版本刚发布,MJ 就宣布免费试用功能回归,这一次则是 Ideogram 抢在 MJ 前一天发布相似的更新,感觉两家有点杠上了的意思。不过 AI 相争,用户得利,这样我们或许就能以更低的成本得到更多好用的功能。

此次上线的两大编辑功能,实实在在解决了一直以来的用户痛点,也让 Midjourney 的竞争力上升到了一个新的水平。纵观目前的商业 AI 绘画工具,无论是生成质量、效果可控性、使用体验,还是辅助编辑功能、社区生态发展,难有一个可以与 MJ 一较高下。

而且据消息透露,Midjourney 还将在年底前上线新的 v7 模型、3D 生成功能和视频生成功能,这让人更期待它未来的发展了。感觉 MJ 的野心远不止一个单纯的 AI 绘画工具,而是一个超级 AI 创意生成工具,让人们的想法可以在瞬间变成现实呈现在眼前,完全颠覆传统的内容制作流程,想必我们的工作方式在未来也会因此发生巨大变化。

那么以上就是本期为大家介绍的的 Midjourney 最新功能「外部图像编辑」的相关内容。喜欢的话一定记得点赞评论支持一波,我会更有动力分享新的内容。

想更全面深入地学习 Midjourney 并做到灵活应用的话,也可以了解我最新制作的《零基础 AI 绘画入门完全指南》,我会从文本提示、图像提示、参数、命令等方面细致讲解 Midjourney 的操作方法,并结合实际案例分享超多干货和冷门小技巧,帮你打下坚实的基础,能有效利用 Midjourney 提升工作效率,完成商业出图需求。

也欢迎大家关注「优设 AI 自学网」 和「优设微信视频号」,每天都会分享最新的 AIGC 资讯和神器,让你轻松掌握 AI 发展动态。也欢迎大家扫描下方的二维码加入“优设 AI 知识交流群”,和我及其他设计师一起交流学习 AI 知识~

无敌了!Midjourney 外部图像编辑功能上线,支持 Controlnet 深度控制

推荐阅读:

2024年10月工具合集!6款不容错过的免费AI神器

大家好我是花生~ 今天我们继续 AI 效率神器的第 12 期,一起来看看吧~ 上期回顾: 一、你能甄别 AI 视频吗?

阅读文章 >

Stability AI 带着 SD 3.5 回来了!修复重大 Bug, 可免费商用!

大家好,我是花生~ 就在昨天,知名开源大模型平台 Stability AI(以下简称 SAI)突然发布了新的 Stable Diffusion 3.5 模型。

阅读文章 >

相关资讯

万能模型 ControlNet Union !10+控制效果一键生成!

大家好,这里是和你们一起探索 AI 的花生~ Controlnet 可以说是目前最重要的一款 AI 绘画控制插件,可以帮我们实现轮廓、深度、动作姿势、颜色等多种控制效果。由于每种控制条件都需要调用不同的控制模型,加上 SD1.5 和 SDXL 的生态并不互通,大家肯定都至少安装了十几种模型文件,给磁盘空间带来了很大的压力。 最近一款名为 ControlNet 的模型却改变了这个状况,它将十多种控制功能合为一体,只需要安装一个模型,就能和多种不同的预处理器搭配使用,今天就来看看它的具体用法。 相关推荐:一、Con
7/15/2024 12:56:49 AM
夏花生

Flux 生态再爆发!新增 4 大模型,支持局部重绘/扩图/风格变体

大家好,我是花生~. 上周 Flux 模型研发方 Black Forest Labs 突然又发布了 4 款新的模型,而且都非常实用,支持对图像进行外绘扩展、局部重绘和生成风格变体,此外还有 depth 和 canny 的控制功能。 其实开源社区已经自发训练了基于 Flux.1 的 Controlnet 模型,所以这次看到官方亲自下场做模型还是挺惊讶的,我都在想是不是官方觉得目前的模型不够好,所以决定自己动手来做。
11/26/2024 1:05:45 AM
夏花生

Stable Diffusion进阶!姥姥都能看懂的ControlNet超全教程!

前言 Hello,大家好,言川又来写教程啦!!这是一篇继《外婆都能看懂的 Stable Diffusion 入门教程》教程之后的一篇文章,如果你还没有安装并了解 stable diffusion 这个软件,那么你一定要先去看看入门教程的文章,然后安装 stable diffusion。一、Controlnet(图像精准控制)是什么? ControlNet 是一个用于控制 AI 图像生成的插件。它使用了一种称为"Conditional Generative Adversarial Networks"(条件生成对抗网络
5/5/2023 5:30:40 AM
言川Artie
  • 1