ChatPaper.aiChatPaper

ELLA: Ausstattung von Diffusionsmodellen mit LLM zur Verbesserung der semantischen Ausrichtung

ELLA: Equip Diffusion Models with LLM for Enhanced Semantic Alignment

March 8, 2024
Autoren: Xiwei Hu, Rui Wang, Yixiao Fang, Bin Fu, Pei Cheng, Gang Yu
cs.AI

Zusammenfassung

Diffusionsmodelle haben eine bemerkenswerte Leistung im Bereich der Text-zu-Bild-Generierung gezeigt. Die meisten weit verbreiteten Modelle verwenden jedoch immer noch CLIP als ihren Text-Encoder, was ihre Fähigkeit einschränkt, dichte Anfragen zu verstehen, die mehrere Objekte, detaillierte Attribute, komplexe Beziehungen, Langtextausrichtung usw. umfassen. In diesem Paper stellen wir einen Effizienten Großen Sprachmodell-Adapter vor, genannt ELLA, der Text-zu-Bild-Diffusionsmodelle mit leistungsstarken Großen Sprachmodellen (LLM) ausstattet, um die Textausrichtung ohne Training von U-Net oder LLM zu verbessern. Um zwei vorab trainierte Modelle nahtlos zu verbinden, untersuchen wir eine Reihe von semantischen Ausrichtungsverbindungsdesigns und schlagen ein neuartiges Modul vor, den Zeitpunkt-bewussten Semantischen Verbinder (TSC), der zeitabhängige Bedingungen dynamisch aus LLM extrahiert. Unser Ansatz passt semantische Merkmale in verschiedenen Stadien des Rauschunterdrückungsprozesses an und unterstützt Diffusionsmodelle bei der Interpretation langer und komplexer Anfragen über Abtastzeitpunkte hinweg. Darüber hinaus kann ELLA problemlos in Community-Modelle und -Tools integriert werden, um deren Fähigkeiten zur Anfrageverfolgung zu verbessern. Zur Bewertung von Text-zu-Bild-Modellen bei dichter Anfrageverfolgung stellen wir den Dichten Anfragegraphen-Benchmark (DPG-Bench) vor, einen anspruchsvollen Benchmark bestehend aus 1K dichten Anfragen. Umfangreiche Experimente zeigen die Überlegenheit von ELLA bei dichter Anfrageverfolgung im Vergleich zu State-of-the-Art-Methoden, insbesondere bei mehreren Objektkompositionen mit vielfältigen Attributen und Beziehungen.
English
Diffusion models have demonstrated remarkable performance in the domain of text-to-image generation. However, most widely used models still employ CLIP as their text encoder, which constrains their ability to comprehend dense prompts, encompassing multiple objects, detailed attributes, complex relationships, long-text alignment, etc. In this paper, we introduce an Efficient Large Language Model Adapter, termed ELLA, which equips text-to-image diffusion models with powerful Large Language Models (LLM) to enhance text alignment without training of either U-Net or LLM. To seamlessly bridge two pre-trained models, we investigate a range of semantic alignment connector designs and propose a novel module, the Timestep-Aware Semantic Connector (TSC), which dynamically extracts timestep-dependent conditions from LLM. Our approach adapts semantic features at different stages of the denoising process, assisting diffusion models in interpreting lengthy and intricate prompts over sampling timesteps. Additionally, ELLA can be readily incorporated with community models and tools to improve their prompt-following capabilities. To assess text-to-image models in dense prompt following, we introduce Dense Prompt Graph Benchmark (DPG-Bench), a challenging benchmark consisting of 1K dense prompts. Extensive experiments demonstrate the superiority of ELLA in dense prompt following compared to state-of-the-art methods, particularly in multiple object compositions involving diverse attributes and relationships.
PDF462December 15, 2024