ChatPaper.aiChatPaper

UNIMO-G: Generazione Unificata di Immagini tramite Diffusione Condizionata Multimodale

UNIMO-G: Unified Image Generation through Multimodal Conditional Diffusion

January 24, 2024
Autori: Wei Li, Xue Xu, Jiachen Liu, Xinyan Xiao
cs.AI

Abstract

I modelli di diffusione testo-immagine esistenti generano principalmente immagini a partire da prompt testuali. Tuttavia, la concisione intrinseca delle descrizioni testuali pone sfide nella sintesi fedele di immagini con dettagli intricati, come entità o scene specifiche. Questo articolo presenta UNIMO-G, un semplice framework di diffusione condizionale multimodale che opera su prompt multimodali con input testuali e visivi intervallati, dimostrando un'abilità unificata sia per la generazione di immagini guidata da testo che da soggetto. UNIMO-G comprende due componenti principali: un Modello Linguistico Multimodale di Grande Scala (MLLM) per codificare i prompt multimodali, e una rete di diffusione condizionale di denoising per generare immagini basate sull'input multimodale codificato. Utilizziamo una strategia di addestramento in due fasi per formare efficacemente il framework: inizialmente pre-addestrando su coppie testo-immagine su larga scala per sviluppare capacità di generazione condizionale di immagini, e poi ottimizzando con istruzioni su prompt multimodali per raggiungere una competenza unificata nella generazione di immagini. Viene impiegata una pipeline di elaborazione dei dati ben progettata che coinvolge il grounding linguistico e la segmentazione delle immagini per costruire prompt multimodali. UNIMO-G eccelle sia nella generazione testo-immagine che nella sintesi guidata da soggetto in zero-shot, ed è particolarmente efficace nel generare immagini ad alta fedeltà da prompt multimodali complessi che coinvolgono più entità immagine.
English
Existing text-to-image diffusion models primarily generate images from text prompts. However, the inherent conciseness of textual descriptions poses challenges in faithfully synthesizing images with intricate details, such as specific entities or scenes. This paper presents UNIMO-G, a simple multimodal conditional diffusion framework that operates on multimodal prompts with interleaved textual and visual inputs, which demonstrates a unified ability for both text-driven and subject-driven image generation. UNIMO-G comprises two core components: a Multimodal Large Language Model (MLLM) for encoding multimodal prompts, and a conditional denoising diffusion network for generating images based on the encoded multimodal input. We leverage a two-stage training strategy to effectively train the framework: firstly pre-training on large-scale text-image pairs to develop conditional image generation capabilities, and then instruction tuning with multimodal prompts to achieve unified image generation proficiency. A well-designed data processing pipeline involving language grounding and image segmentation is employed to construct multi-modal prompts. UNIMO-G excels in both text-to-image generation and zero-shot subject-driven synthesis, and is notably effective in generating high-fidelity images from complex multimodal prompts involving multiple image entities.
PDF123December 15, 2024