ChatPaper.aiChatPaper

UNIMO-G: Geração Unificada de Imagens através de Difusão Condicional Multimodal

UNIMO-G: Unified Image Generation through Multimodal Conditional Diffusion

January 24, 2024
Autores: Wei Li, Xue Xu, Jiachen Liu, Xinyan Xiao
cs.AI

Resumo

Os modelos de difusão texto-imagem existentes geram principalmente imagens a partir de prompts textuais. No entanto, a concisão inerente das descrições textuais apresenta desafios na síntese fiel de imagens com detalhes intrincados, como entidades ou cenas específicas. Este artigo apresenta o UNIMO-G, uma estrutura simples de difusão condicional multimodal que opera com prompts multimodais que intercalam entradas textuais e visuais, demonstrando uma capacidade unificada para geração de imagens tanto orientada por texto quanto por sujeito. O UNIMO-G compreende dois componentes principais: um Modelo de Linguagem Multimodal de Grande Escala (MLLM) para codificar prompts multimodais, e uma rede de difusão de remoção de ruído condicional para gerar imagens com base na entrada multimodal codificada. Utilizamos uma estratégia de treinamento em duas etapas para treinar efetivamente a estrutura: primeiro, pré-treinamento em pares texto-imagem em grande escala para desenvolver capacidades de geração de imagens condicionais, e depois ajuste por instrução com prompts multimodais para alcançar proficiência unificada na geração de imagens. Um pipeline de processamento de dados bem projetado, envolvendo ancoragem linguística e segmentação de imagens, é empregado para construir prompts multimodais. O UNIMO-G se destaca tanto na geração de texto para imagem quanto na síntese orientada por sujeito com zero-shot, sendo notavelmente eficaz na geração de imagens de alta fidelidade a partir de prompts multimodais complexos envolvendo múltiplas entidades de imagem.
English
Existing text-to-image diffusion models primarily generate images from text prompts. However, the inherent conciseness of textual descriptions poses challenges in faithfully synthesizing images with intricate details, such as specific entities or scenes. This paper presents UNIMO-G, a simple multimodal conditional diffusion framework that operates on multimodal prompts with interleaved textual and visual inputs, which demonstrates a unified ability for both text-driven and subject-driven image generation. UNIMO-G comprises two core components: a Multimodal Large Language Model (MLLM) for encoding multimodal prompts, and a conditional denoising diffusion network for generating images based on the encoded multimodal input. We leverage a two-stage training strategy to effectively train the framework: firstly pre-training on large-scale text-image pairs to develop conditional image generation capabilities, and then instruction tuning with multimodal prompts to achieve unified image generation proficiency. A well-designed data processing pipeline involving language grounding and image segmentation is employed to construct multi-modal prompts. UNIMO-G excels in both text-to-image generation and zero-shot subject-driven synthesis, and is notably effective in generating high-fidelity images from complex multimodal prompts involving multiple image entities.
PDF123December 15, 2024