UNIMO-G: Uniforme Beeldgeneratie via Multimodale Conditionele Diffusie
UNIMO-G: Unified Image Generation through Multimodal Conditional Diffusion
January 24, 2024
Auteurs: Wei Li, Xue Xu, Jiachen Liu, Xinyan Xiao
cs.AI
Samenvatting
Bestaande tekst-naar-beeld diffusiemodellen genereren voornamelijk afbeeldingen op basis van tekstprompts. De inherente beknoptheid van tekstuele beschrijvingen brengt echter uitdagingen met zich mee bij het nauwkeurig synthetiseren van afbeeldingen met gedetailleerde elementen, zoals specifieke entiteiten of scènes. Dit artikel presenteert UNIMO-G, een eenvoudig multimodaal conditioneel diffusiekader dat werkt met multimodale prompts die afwisselend tekstuele en visuele invoer bevatten, en dat een verenigd vermogen demonstreert voor zowel tekstgestuurde als onderwerpgestuurde beeldgeneratie. UNIMO-G bestaat uit twee kerncomponenten: een Multimodaal Taalmodel op Grote Schaal (MLLM) voor het coderen van multimodale prompts, en een conditioneel denoiserend diffusienetwerk voor het genereren van afbeeldingen op basis van de gecodeerde multimodale invoer. We maken gebruik van een tweefasige trainingsstrategie om het kader effectief te trainen: eerst pre-training op grootschalige tekst-beeldparen om conditionele beeldgeneratiecapaciteiten te ontwikkelen, en vervolgens instructieafstemming met multimodale prompts om een verenigde beeldgeneratievaardigheid te bereiken. Een goed ontworpen gegevensverwerkingspijplijn met taalverankering en beeldsegmentatie wordt gebruikt om multimodale prompts te construeren. UNIMO-G blinkt uit in zowel tekst-naar-beeldgeneratie als zero-shot onderwerpgestuurde synthese, en is bijzonder effectief in het genereren van hoogwaardige afbeeldingen vanuit complexe multimodale prompts die meerdere beeldentiteiten omvatten.
English
Existing text-to-image diffusion models primarily generate images from text
prompts. However, the inherent conciseness of textual descriptions poses
challenges in faithfully synthesizing images with intricate details, such as
specific entities or scenes. This paper presents UNIMO-G, a simple
multimodal conditional diffusion framework that operates on multimodal prompts
with interleaved textual and visual inputs, which demonstrates a unified
ability for both text-driven and subject-driven image generation. UNIMO-G
comprises two core components: a Multimodal Large Language Model (MLLM) for
encoding multimodal prompts, and a conditional denoising diffusion network for
generating images based on the encoded multimodal input. We leverage a
two-stage training strategy to effectively train the framework: firstly
pre-training on large-scale text-image pairs to develop conditional image
generation capabilities, and then instruction tuning with multimodal prompts to
achieve unified image generation proficiency. A well-designed data processing
pipeline involving language grounding and image segmentation is employed to
construct multi-modal prompts. UNIMO-G excels in both text-to-image generation
and zero-shot subject-driven synthesis, and is notably effective in generating
high-fidelity images from complex multimodal prompts involving multiple image
entities.