ChatPaper.aiChatPaper

LDGen: Miglioramento della sintesi testo-immagine tramite rappresentazione linguistica guidata da modelli linguistici di grandi dimensioni

LDGen: Enhancing Text-to-Image Synthesis via Large Language Model-Driven Language Representation

February 25, 2025
Autori: Pengzhi Li, Pengfei Yu, Zide Liu, Wei He, Xuhao Pan, Xudong Rao, Tao Wei, Wei Chen
cs.AI

Abstract

In questo articolo, presentiamo LDGen, un nuovo metodo per integrare grandi modelli linguistici (LLM) nei modelli di diffusione testo-immagine esistenti riducendo al minimo le richieste computazionali. Gli encoder di testo tradizionali, come CLIP e T5, presentano limitazioni nel trattamento multilingue, ostacolando la generazione di immagini in diverse lingue. Affrontiamo queste sfide sfruttando le capacità avanzate dei LLM. Il nostro approccio utilizza una strategia di rappresentazione linguistica che applica ottimizzazione gerarchica della didascalia e tecniche di istruzioni umane per estrarre informazioni semantiche precise. Successivamente, incorporiamo un adattatore leggero e un raffinatore cross-modale per facilitare l'allineamento efficiente delle caratteristiche e l'interazione tra i LLM e le caratteristiche dell'immagine. LDGen riduce il tempo di addestramento e consente la generazione di immagini multilingue senza bisogno di adattamento. I risultati sperimentali indicano che il nostro metodo supera i modelli di riferimento sia nell'aderenza alla richiesta che nella qualità estetica delle immagini, supportando senza problemi diverse lingue. Pagina del progetto: https://zrealli.github.io/LDGen.
English
In this paper, we introduce LDGen, a novel method for integrating large language models (LLMs) into existing text-to-image diffusion models while minimizing computational demands. Traditional text encoders, such as CLIP and T5, exhibit limitations in multilingual processing, hindering image generation across diverse languages. We address these challenges by leveraging the advanced capabilities of LLMs. Our approach employs a language representation strategy that applies hierarchical caption optimization and human instruction techniques to derive precise semantic information,. Subsequently, we incorporate a lightweight adapter and a cross-modal refiner to facilitate efficient feature alignment and interaction between LLMs and image features. LDGen reduces training time and enables zero-shot multilingual image generation. Experimental results indicate that our method surpasses baseline models in both prompt adherence and image aesthetic quality, while seamlessly supporting multiple languages. Project page: https://zrealli.github.io/LDGen.

Summary

AI-Generated Summary

PDF52February 26, 2025