深度解析Recraft V3:突破文本渲染限制,「文生图」黑马是怎样炼成的?

在当前的图像生成技术中,文本渲染的能力已逐渐成为衡量其先进性的重要标准。 不论是学术界的最新研究还是市场上的先进产品,都在竞相展示其处理复杂文本的能力,这不仅标志着技术的进步,更是成为一种创新的分水岭。 实际上,字图生成技术在多个领域内显示出显著的实用性,例如在设计海报、书籍封面、广告和LOGO等方面,已成为不可或缺的工具。

在当前的图像生成技术中,文本渲染的能力已逐渐成为衡量其先进性的重要标准。不论是学术界的最新研究还是市场上的先进产品,都在竞相展示其处理复杂文本的能力,这不仅标志着技术的进步,更是成为一种创新的分水岭。

实际上,字图生成技术在多个领域内显示出显著的实用性,例如在设计海报、书籍封面、广告和LOGO等方面,已成为不可或缺的工具。

图片

此外,随着社交媒体和数字营销的兴起,能够快速生成视觉吸引力强的图像变得尤为重要。这些图像往往需要结合富有创意的文本,以更好地与目标观众沟通,从而在短时间内吸引用户注意力,提高品牌识别度。

图片

图1 现有文生图方法的生成结果。Prompt: a cat holds a paper saying text rendering is important

在图1中,我们可以直观地看到文生图模型技术的飞速进步。然而,尽管技术日益成熟,部分方法在处理复杂文本时仍显示出一些局限性。

例如,生成的图像有时会遗漏prompt中的关键词,这可能会影响最终图像的可用性。而像Ideogram和Recraft V3这样的产品在文本渲染方面表现出色。

它们能够更精确地捕捉和呈现文本中的细节和语境,从而生成与输入文本高度匹配的图像。

值得一提的是,Recraft V3作为文生图领域的黑马,已经在Artificial Analysis Text to Image Model Leaderboard上以1172的ELO评分获得了第一名(图2)。Recraft的新模型展示出的质量超过了Midjourney、OpenAI以及其他所有主要图像生成公司的模型。

图片

图2 在文生图排行榜上,Recraft V3排名第一

最近,Recraft团队在其官方网站上分享了其在文本渲染技术方面的一些实现细节。接下来的部分,我将详细分析这些技术细节,探讨Recraft如何实现其出色的文本到图像渲染效果。

图片

图3 早期Recraft 20B模型的文本渲染能力不佳。Prompt:a cat with a sign 'Recraft generates text amazingly good!' in its paws

Recraft团队首先尝试使用早期模型模型Recraft 20B基于prompt “a cat with a sign 'Recraft generates text amazingly good!' in its paws”生成图像,结果发现文本渲染效果不佳(图3)。基于此Recraft团队总结分析了几个关键点:

1. 训练数据的限制:文本到图像的生成模型主要是在包含图像及其对应简要描述的数据集上进行优化的。这些描述通常只涵盖图像的大致内容,而不提供具体细节,尤其是图像中的文字内容。因此,当需要生成包含具体文字的图像时,模型因为缺乏详细的条件或例子而表现不佳。

2. 文本错误的易识别性:人类的大脑对于处理和识别文本非常擅长,因此在图像生成中的任何文本错误都很容易被我们发现。

为了解决图像生成模型在处理图像中的文本问题,Recraft团队采用了一种方法,使用文本布局图作为更详细的输入条件。此策略的灵感来源于TextDiffuser-2论文(图4),该论文提供了有效处理文本表征技术。

图片

图4 Recraft团队采用TextDiffuser-2技术构造两阶段文本渲染框架

论文链接:https://arxiv.org/pdf/2311.16465

在搜集数据的过程中,Recraft团队借鉴了TextDiffuser-2的方法,采用了两阶段生成框架:首先生成文本布局,然后基于这些布局生成图像。

尽管文本布局可以通过使用OCR技术从现有的字图图像中检测获得,Recraft团队发现现有的开源OCR工具难以生成完美的OCR结果,这主要是由于数据分布的差异。

因此,Recraft团队参考了《Bridging the Gap Between End-to-End and Two-Step Text Spotting》论文(图5),开发了一种新的文本检测和识别方法。

图片

图5 Recraft团队采用此论文提取文本layout

论文链接:https://arxiv.org/abs/2404.04624

最终,Recraft团队基于大语言模型训练了两个「双向」的模型:一个模型基于OCR结果生成caption,另一个模型则可以根据用户的prompt生成模型想象的OCR caption,从而完成文本布局的生成。这样的方法有效地提升了生成图像的质量和文本的准确性。

图片

图片

图6 Recraft团队使用OCR模型提取图像的文本layout,采用大语言模型得到caption,并训练另外一个大语言模型由prompt得到layout用于图像生成

在构建文本信息的过程中,Recraft团队采用了TextDiffuser-2的表征方式,每一行文本首先记录了文本的内容,随后通过坐标来指明文本的具体区域。

与TextDiffuser-2不同,Recraft团队使用了三个坐标点来表示文本(图7),使得模型能够支持渲染倾斜的文本。

此外,Recraft团队最终选择了类似ControlNet的架构来渲染白底黑字的图像,用作模型生成的辅助条件。这种方法增加了文本渲染的可控性,允许用户自定义想要渲染的文本区域。这与仅使用prompt作为条件的flux和ideogram方法形成了对比,提供了更高的灵活性和控制度。

图片

图片

图7 Recraft团队采用TextDiffuser-2的表征方式得到文本layout,并将其渲染为图片作为condition进行图像生成

由于Recraft团队开放了测试接口,我对模型进行了一些测试,效果十分惊艳

图片

图8 prompt: a cat holds a paper saying abcdefghijklmnopqrstuvwxyz

图片

图9 prompt: a graphic design with monkey music festival poster

图片

图10 prompt: a girl in the left holds the paper saying hello and a boy in the right holds the paper saying world

图片

图11 prompt: On a rainy night, the lightning in the sky formed the shape of "hello."

然而Recraft依然存在一些问题,例如模型尽管能支持中文prompt,但对于中文渲染不是特别好:

图片

图12 prompt: 下雨的夜晚,天空中的闪电构成了“天空”两个字

另外Recraft也很难渲染未明确指定的文本:

图片

图13 prompt: a man stands in front of a huge newspaper。可以发现小字部分的笔画是扭曲的。

图片

图14 prompt: keyboard。键盘上的文本是错乱的。

图片

图15 prompt: ruler。刻度是错乱的。

总之,文本渲染在文本生成图像领域扮演了至关重要的角色,它不仅关系到图像的视觉呈现,还影响到文本信息的准确传达和语义理解。尽管近年来技术有了显著的进步,但文本渲染依然面临诸多挑战,需要进一步的研究和改进。

参考资料:

https://www.recraft.ai/blog/how-to-create-sota-image-generation-with-text-recrafts-ml-team-insights

Chen J, Huang Y, Lv T, et al. Textdiffuser: Diffusion models as text painters. NeurIPS 2023. 

Chen J, Huang Y, Lv T, et al. Textdiffuser-2: Unleashing the power of language models for text rendering. ECCV 2024. Huang M, Li H, Liu Y, et al. 

Bridging the Gap Between End-to-End and Two-Step Text Spotting. CVPR 2024.

相关资讯

增大模型依然有用,DeepMind用2800亿参数的Gopher,测试语言系统极限

DeepMind 连发三篇论文,全面阐述大规模语言模型依然在进展之中,能力也在继续增强。近年来,国内外各大 AI 巨头的大规模语言模型(large language model,LLM)一波接着一波,如 OpenAI 的 GPT-3、智源研究院的悟道 2.0 等。大模型已然成为社区势不可挡的发展趋势。然而,当前语言模型存在着一些问题,比如逻辑推理较弱。那么,我们是否可以仅通过添加更多数据和算力的情况下改进这些问题呢?或者,我们已经达到了语言模型相关技术范式的极限?今日,DeepMind「一口气」发表了三篇论文,目的

业界首个支持9种语言的文图生成模型!智源AltDiffusion开源技术解读

AIGC(AI-Generated Content 人工智能生成内容)是当前 AI 领域最热门的话题之一,受到学界、业界的广泛关注。尤其是伴随着 OpenAI DALL·E 2 的推出到 Stable Diffusion 的开源,文图生成也从之前的研究探索发展到了具有商业化落地潜力的新兴技术。最近一段时间,随着文本生成图像跨模态应用的不断涌现,AIGC 更是火爆出圈,广受关注。然而,中文和其他语言的文图生成发展滞后于英语世界,大部分团队主要是基于翻译 API 英文 Stable Diffusion 模型进行开发

复旦邱锡鹏:深度剖析 ChatGPT 类大语言模型的关键技术

内容来源:ChatGPT 及大模型专题研讨会分享嘉宾:复旦大教授 邱锡鹏分享主题:《对话式大型语言模型》转载自CSDN稿件ChapGPT 自问世以来,便展现出了令世人惊艳的对话能力。仅用两个月时间,ChatGPT 月活跃用户就达一亿,是史上用户增速最快的消费应用。对于学术界、工业界、或是其他相关应用来说都是一个非常大的机会和挑战。事实上,ChatGPT 的成功并不是偶然结果,其背后多有创新之处。本文整理于达观数据参与承办的「ChatGPT 及大模型专题研讨会」上,复旦大学邱锡鹏教授带来的《对话式大型语言模型》主题分