ChatPaper.aiChatPaper

UNIMO-G: Generación Unificada de Imágenes mediante Difusión Condicional Multimodal

UNIMO-G: Unified Image Generation through Multimodal Conditional Diffusion

January 24, 2024
Autores: Wei Li, Xue Xu, Jiachen Liu, Xinyan Xiao
cs.AI

Resumen

Los modelos de difusión de texto a imagen existentes generan principalmente imágenes a partir de indicaciones textuales. Sin embargo, la inherente concisión de las descripciones textuales plantea desafíos para sintetizar fielmente imágenes con detalles intrincados, como entidades o escenas específicas. Este artículo presenta UNIMO-G, un marco simple de difusión condicional multimodal que opera con indicaciones multimodales que combinan entradas textuales y visuales, demostrando una capacidad unificada tanto para la generación de imágenes impulsada por texto como por sujetos. UNIMO-G consta de dos componentes principales: un Modelo de Lenguaje Multimodal de Gran Escala (MLLM) para codificar indicaciones multimodales, y una red de difusión de eliminación de ruido condicional para generar imágenes basadas en la entrada multimodal codificada. Aprovechamos una estrategia de entrenamiento en dos etapas para entrenar eficazmente el marco: primero, preentrenamiento en pares de texto-imagen a gran escala para desarrollar capacidades de generación de imágenes condicionales, y luego ajuste por instrucciones con indicaciones multimodales para lograr una competencia unificada en la generación de imágenes. Se emplea una canalización de procesamiento de datos bien diseñada que incluye anclaje lingüístico y segmentación de imágenes para construir indicaciones multimodales. UNIMO-G sobresale tanto en la generación de texto a imagen como en la síntesis impulsada por sujetos en modo cero-shot, y es notablemente efectivo en la generación de imágenes de alta fidelidad a partir de indicaciones multimodales complejas que involucran múltiples entidades de imagen.
English
Existing text-to-image diffusion models primarily generate images from text prompts. However, the inherent conciseness of textual descriptions poses challenges in faithfully synthesizing images with intricate details, such as specific entities or scenes. This paper presents UNIMO-G, a simple multimodal conditional diffusion framework that operates on multimodal prompts with interleaved textual and visual inputs, which demonstrates a unified ability for both text-driven and subject-driven image generation. UNIMO-G comprises two core components: a Multimodal Large Language Model (MLLM) for encoding multimodal prompts, and a conditional denoising diffusion network for generating images based on the encoded multimodal input. We leverage a two-stage training strategy to effectively train the framework: firstly pre-training on large-scale text-image pairs to develop conditional image generation capabilities, and then instruction tuning with multimodal prompts to achieve unified image generation proficiency. A well-designed data processing pipeline involving language grounding and image segmentation is employed to construct multi-modal prompts. UNIMO-G excels in both text-to-image generation and zero-shot subject-driven synthesis, and is notably effective in generating high-fidelity images from complex multimodal prompts involving multiple image entities.
PDF123December 15, 2024