ChatPaper.aiChatPaper

AMO Sampler: Melhorando a Renderização de Texto com Overshooting

AMO Sampler: Enhancing Text Rendering with Overshooting

November 28, 2024
Autores: Xixi Hu, Keyang Xu, Bo Liu, Qiang Liu, Hongliang Fei
cs.AI

Resumo

Alcançar um alinhamento preciso entre instruções textuais e imagens geradas na geração de texto para imagem é um desafio significativo, especialmente na renderização de texto escrito dentro de imagens. Modelos de ponta como Stable Diffusion 3 (SD3), Flux e AuraFlow ainda enfrentam dificuldades com a representação precisa de texto, resultando em erros de ortografia ou texto inconsistente. Apresentamos um método sem necessidade de treinamento, com sobrecarga computacional mínima, que melhora significativamente a qualidade da renderização de texto. Especificamente, introduzimos um amostrador de overshooting para modelos pré-treinados de fluxo retificado (RF), alternando entre a superestimação da equação diferencial ordinária (ODE) aprendida e a reintrodução de ruído. Em comparação com o amostrador de Euler, o amostrador de overshooting introduz efetivamente um termo extra de dinâmica de Langevin que pode ajudar a corrigir o erro acumulado a partir de passos sucessivos de Euler e, portanto, melhorar a renderização de texto. No entanto, quando a força de overshooting é alta, observamos artefatos de oversmoothing nas imagens geradas. Para abordar esse problema, propomos um amostrador de Overshooting Modulado por Atenção (AMO), que controla adaptativamente a força de overshooting para cada patch de imagem de acordo com sua pontuação de atenção com o conteúdo do texto. O AMO demonstra uma melhoria de 32,3% e 35,9% na precisão da renderização de texto no SD3 e Flux sem comprometer a qualidade geral da imagem ou aumentar o custo de inferência.
English
Achieving precise alignment between textual instructions and generated images in text-to-image generation is a significant challenge, particularly in rendering written text within images. Sate-of-the-art models like Stable Diffusion 3 (SD3), Flux, and AuraFlow still struggle with accurate text depiction, resulting in misspelled or inconsistent text. We introduce a training-free method with minimal computational overhead that significantly enhances text rendering quality. Specifically, we introduce an overshooting sampler for pretrained rectified flow (RF) models, by alternating between over-simulating the learned ordinary differential equation (ODE) and reintroducing noise. Compared to the Euler sampler, the overshooting sampler effectively introduces an extra Langevin dynamics term that can help correct the compounding error from successive Euler steps and therefore improve the text rendering. However, when the overshooting strength is high, we observe over-smoothing artifacts on the generated images. To address this issue, we propose an Attention Modulated Overshooting sampler (AMO), which adaptively controls the strength of overshooting for each image patch according to their attention score with the text content. AMO demonstrates a 32.3% and 35.9% improvement in text rendering accuracy on SD3 and Flux without compromising overall image quality or increasing inference cost.
PDF42December 4, 2024