ChatPaper.aiChatPaper

UNIMO-G:マルチモーダル条件付き拡散による統合画像生成

UNIMO-G: Unified Image Generation through Multimodal Conditional Diffusion

January 24, 2024
著者: Wei Li, Xue Xu, Jiachen Liu, Xinyan Xiao
cs.AI

要旨

既存のテキストから画像を生成する拡散モデルは、主にテキストプロンプトから画像を生成します。しかし、テキスト記述の本質的な簡潔さは、特定のエンティティやシーンなどの複雑な詳細を忠実に合成する際に課題を生じさせます。本論文では、テキストと視覚的入力を交互に組み合わせたマルチモーダルプロンプトを操作し、テキスト駆動とサブジェクト駆動の両方の画像生成を統一的に実現するシンプルなマルチモーダル条件付き拡散フレームワークであるUNIMO-Gを提案します。UNIMO-Gは、マルチモーダルプロンプトをエンコードするためのマルチモーダル大規模言語モデル(MLLM)と、エンコードされたマルチモーダル入力に基づいて画像を生成する条件付きノイズ除去拡散ネットワークの2つのコアコンポーネントで構成されています。本フレームワークを効果的に訓練するために、2段階の訓練戦略を採用しています。まず、大規模なテキスト-画像ペアで事前訓練を行い、条件付き画像生成能力を開発し、その後、マルチモーダルプロンプトを用いた指示チューニングを行い、統一的画像生成能力を達成します。言語グラウンディングと画像セグメンテーションを含む、よく設計されたデータ処理パイプラインを使用して、マルチモーダルプロンプトを構築します。UNIMO-Gは、テキストから画像を生成するタスクとゼロショットサブジェクト駆動合成の両方で優れた性能を発揮し、複数の画像エンティティを含む複雑なマルチモーダルプロンプトから高忠実度の画像を生成する際に特に効果的です。
English
Existing text-to-image diffusion models primarily generate images from text prompts. However, the inherent conciseness of textual descriptions poses challenges in faithfully synthesizing images with intricate details, such as specific entities or scenes. This paper presents UNIMO-G, a simple multimodal conditional diffusion framework that operates on multimodal prompts with interleaved textual and visual inputs, which demonstrates a unified ability for both text-driven and subject-driven image generation. UNIMO-G comprises two core components: a Multimodal Large Language Model (MLLM) for encoding multimodal prompts, and a conditional denoising diffusion network for generating images based on the encoded multimodal input. We leverage a two-stage training strategy to effectively train the framework: firstly pre-training on large-scale text-image pairs to develop conditional image generation capabilities, and then instruction tuning with multimodal prompts to achieve unified image generation proficiency. A well-designed data processing pipeline involving language grounding and image segmentation is employed to construct multi-modal prompts. UNIMO-G excels in both text-to-image generation and zero-shot subject-driven synthesis, and is notably effective in generating high-fidelity images from complex multimodal prompts involving multiple image entities.
PDF123December 15, 2024