LDGen: Miglioramento della sintesi testo-immagine tramite rappresentazione linguistica guidata da modelli linguistici di grandi dimensioni
LDGen: Enhancing Text-to-Image Synthesis via Large Language Model-Driven Language Representation
February 25, 2025
Autori: Pengzhi Li, Pengfei Yu, Zide Liu, Wei He, Xuhao Pan, Xudong Rao, Tao Wei, Wei Chen
cs.AI
Abstract
In questo articolo, presentiamo LDGen, un nuovo metodo per integrare grandi modelli linguistici (LLM) nei modelli di diffusione testo-immagine esistenti riducendo al minimo le richieste computazionali. Gli encoder di testo tradizionali, come CLIP e T5, presentano limitazioni nel trattamento multilingue, ostacolando la generazione di immagini in diverse lingue. Affrontiamo queste sfide sfruttando le capacità avanzate dei LLM. Il nostro approccio utilizza una strategia di rappresentazione linguistica che applica ottimizzazione gerarchica della didascalia e tecniche di istruzioni umane per estrarre informazioni semantiche precise. Successivamente, incorporiamo un adattatore leggero e un raffinatore cross-modale per facilitare l'allineamento efficiente delle caratteristiche e l'interazione tra i LLM e le caratteristiche dell'immagine. LDGen riduce il tempo di addestramento e consente la generazione di immagini multilingue senza bisogno di adattamento. I risultati sperimentali indicano che il nostro metodo supera i modelli di riferimento sia nell'aderenza alla richiesta che nella qualità estetica delle immagini, supportando senza problemi diverse lingue. Pagina del progetto: https://zrealli.github.io/LDGen.
English
In this paper, we introduce LDGen, a novel method for integrating large
language models (LLMs) into existing text-to-image diffusion models while
minimizing computational demands. Traditional text encoders, such as CLIP and
T5, exhibit limitations in multilingual processing, hindering image generation
across diverse languages. We address these challenges by leveraging the
advanced capabilities of LLMs. Our approach employs a language representation
strategy that applies hierarchical caption optimization and human instruction
techniques to derive precise semantic information,. Subsequently, we
incorporate a lightweight adapter and a cross-modal refiner to facilitate
efficient feature alignment and interaction between LLMs and image features.
LDGen reduces training time and enables zero-shot multilingual image
generation. Experimental results indicate that our method surpasses baseline
models in both prompt adherence and image aesthetic quality, while seamlessly
supporting multiple languages. Project page: https://zrealli.github.io/LDGen.Summary
AI-Generated Summary