ELLA: Potenziare i Modelli di Diffusione con LLM per un Miglior Allineamento Semantico
ELLA: Equip Diffusion Models with LLM for Enhanced Semantic Alignment
March 8, 2024
Autori: Xiwei Hu, Rui Wang, Yixiao Fang, Bin Fu, Pei Cheng, Gang Yu
cs.AI
Abstract
I modelli di diffusione hanno dimostrato prestazioni notevoli nel dominio della generazione di immagini da testo. Tuttavia, la maggior parte dei modelli ampiamente utilizzati impiega ancora CLIP come codificatore di testo, il che limita la loro capacità di comprendere prompt densi, che includono più oggetti, attributi dettagliati, relazioni complesse, allineamento di testi lunghi, ecc. In questo articolo, introduciamo un adattatore efficiente per modelli linguistici di grandi dimensioni, denominato ELLA, che equipaggia i modelli di diffusione per la generazione di immagini da testo con potenti modelli linguistici di grandi dimensioni (LLM) per migliorare l'allineamento del testo senza addestrare né la U-Net né l'LLM. Per collegare in modo fluido due modelli pre-addestrati, esploriamo una gamma di progetti di connettori di allineamento semantico e proponiamo un modulo innovativo, il Connettore Semantico Consapevole del Timestep (TSC), che estrae dinamicamente condizioni dipendenti dal timestep dall'LLM. Il nostro approccio adatta le caratteristiche semantiche in diverse fasi del processo di denoising, assistendo i modelli di diffusione nell'interpretazione di prompt lunghi e complessi durante i timestep di campionamento. Inoltre, ELLA può essere facilmente integrato con modelli e strumenti della comunità per migliorare le loro capacità di seguire i prompt. Per valutare i modelli di generazione di immagini da testo nel seguire prompt densi, introduciamo il benchmark Dense Prompt Graph Benchmark (DPG-Bench), un benchmark impegnativo composto da 1K prompt densi. Esperimenti estensivi dimostrano la superiorità di ELLA nel seguire prompt densi rispetto ai metodi all'avanguardia, in particolare nelle composizioni di più oggetti che coinvolgono attributi e relazioni diversificati.
English
Diffusion models have demonstrated remarkable performance in the domain of
text-to-image generation. However, most widely used models still employ CLIP as
their text encoder, which constrains their ability to comprehend dense prompts,
encompassing multiple objects, detailed attributes, complex relationships,
long-text alignment, etc. In this paper, we introduce an Efficient Large
Language Model Adapter, termed ELLA, which equips text-to-image diffusion
models with powerful Large Language Models (LLM) to enhance text alignment
without training of either U-Net or LLM. To seamlessly bridge two pre-trained
models, we investigate a range of semantic alignment connector designs and
propose a novel module, the Timestep-Aware Semantic Connector (TSC), which
dynamically extracts timestep-dependent conditions from LLM. Our approach
adapts semantic features at different stages of the denoising process,
assisting diffusion models in interpreting lengthy and intricate prompts over
sampling timesteps. Additionally, ELLA can be readily incorporated with
community models and tools to improve their prompt-following capabilities. To
assess text-to-image models in dense prompt following, we introduce Dense
Prompt Graph Benchmark (DPG-Bench), a challenging benchmark consisting of 1K
dense prompts. Extensive experiments demonstrate the superiority of ELLA in
dense prompt following compared to state-of-the-art methods, particularly in
multiple object compositions involving diverse attributes and relationships.