ChatPaper.aiChatPaper

Compass Control: Controllo Multi-Orientamento Oggetti per la Generazione di Immagini da Testo

Compass Control: Multi Object Orientation Control for Text-to-Image Generation

April 9, 2025
Autori: Rishubh Parihar, Vaibhav Agrawal, Sachidanand VS, R. Venkatesh Babu
cs.AI

Abstract

Gli approcci esistenti per il controllo dei modelli di diffusione testo-immagine, sebbene potenti, non consentono un controllo esplicito e centrato sugli oggetti 3D, come il controllo preciso dell'orientamento degli oggetti. In questo lavoro, affrontiamo il problema del controllo dell'orientamento multi-oggetto nei modelli di diffusione testo-immagine. Ciò consente la generazione di scene multi-oggetto diversificate con un controllo preciso dell'orientamento per ciascun oggetto. L'idea chiave è condizionare il modello di diffusione con un insieme di token compasso orientati, uno per ogni oggetto, insieme ai token di testo. Una rete codificatrice leggera predice questi token compasso prendendo come input l'orientamento dell'oggetto. Il modello è addestrato su un dataset sintetico di scene generate proceduralmente, ciascuna contenente uno o due asset 3D su uno sfondo semplice. Tuttavia, l'addestramento diretto di questo framework risulta in un controllo scadente dell'orientamento e porta a un intreccio tra gli oggetti. Per mitigare ciò, interveniamo nel processo di generazione e vincoliamo le mappe di cross-attention di ciascun token compasso alle regioni corrispondenti dell'oggetto. Il modello addestrato è in grado di ottenere un controllo preciso dell'orientamento per a) oggetti complessi non visti durante l'addestramento e b) scene multi-oggetto con più di due oggetti, indicando forti capacità di generalizzazione. Inoltre, quando combinato con metodi di personalizzazione, il nostro metodo controlla con precisione l'orientamento del nuovo oggetto in contesti diversificati. Il nostro metodo raggiunge uno stato dell'arte nel controllo dell'orientamento e nell'allineamento del testo, quantificato con valutazioni estensive e uno studio utente.
English
Existing approaches for controlling text-to-image diffusion models, while powerful, do not allow for explicit 3D object-centric control, such as precise control of object orientation. In this work, we address the problem of multi-object orientation control in text-to-image diffusion models. This enables the generation of diverse multi-object scenes with precise orientation control for each object. The key idea is to condition the diffusion model with a set of orientation-aware compass tokens, one for each object, along with text tokens. A light-weight encoder network predicts these compass tokens taking object orientation as the input. The model is trained on a synthetic dataset of procedurally generated scenes, each containing one or two 3D assets on a plain background. However, direct training this framework results in poor orientation control as well as leads to entanglement among objects. To mitigate this, we intervene in the generation process and constrain the cross-attention maps of each compass token to its corresponding object regions. The trained model is able to achieve precise orientation control for a) complex objects not seen during training and b) multi-object scenes with more than two objects, indicating strong generalization capabilities. Further, when combined with personalization methods, our method precisely controls the orientation of the new object in diverse contexts. Our method achieves state-of-the-art orientation control and text alignment, quantified with extensive evaluations and a user study.

Summary

AI-Generated Summary

PDF105April 11, 2025