ChatPaper.aiChatPaper

Costruisci una scena: Controllo interattivo del layout 3D per la generazione di immagini basata sulla diffusione

Build-A-Scene: Interactive 3D Layout Control for Diffusion-Based Image Generation

August 27, 2024
Autori: Abdelrahman Eldesokey, Peter Wonka
cs.AI

Abstract

Proponiamo un approccio basato sulla diffusione per la generazione Testo-Immagine (T2I) con controllo interattivo del layout 3D. Il controllo del layout è stato ampiamente studiato per alleviare i difetti dei modelli di diffusione T2I nella comprensione della disposizione degli oggetti e delle relazioni dalle descrizioni testuali. Tuttavia, gli approcci esistenti per il controllo del layout sono limitati ai layout 2D, richiedono che l'utente fornisca un layout statico in anticipo e non riescono a preservare le immagini generate durante i cambiamenti del layout. Ciò rende tali approcci inadatti per applicazioni che richiedono il controllo tridimensionale degli oggetti e raffinamenti iterativi, ad esempio il design d'interni e la generazione di scene complesse. A tal fine, sfruttiamo i recenti progressi nei modelli T2I condizionati dalla profondità e proponiamo un nuovo approccio per il controllo interattivo del layout 3D. Sostituiamo i tradizionali rettangoli 2D utilizzati nel controllo del layout con rettangoli 3D. Inoltre, rivoluzioniamo il compito T2I come un processo di generazione a più fasi, in cui ad ogni fase l'utente può inserire, modificare e spostare un oggetto in 3D preservando gli oggetti delle fasi precedenti. Raggiungiamo questo obiettivo attraverso il nostro modulo di Auto-Attenzione Dinamica (DSA) proposto e la strategia coerente di traduzione degli oggetti 3D. Gli esperimenti mostrano che il nostro approccio può generare scene complesse basate su layout 3D, aumentando il tasso di successo nella generazione degli oggetti rispetto ai metodi T2I condizionati dalla profondità standard del 2x. Inoltre, supera altri metodi nel preservare gli oggetti durante i cambiamenti del layout. Pagina del Progetto: https://abdo-eldesokey.github.io/build-a-scene/
English
We propose a diffusion-based approach for Text-to-Image (T2I) generation with interactive 3D layout control. Layout control has been widely studied to alleviate the shortcomings of T2I diffusion models in understanding objects' placement and relationships from text descriptions. Nevertheless, existing approaches for layout control are limited to 2D layouts, require the user to provide a static layout beforehand, and fail to preserve generated images under layout changes. This makes these approaches unsuitable for applications that require 3D object-wise control and iterative refinements, e.g., interior design and complex scene generation. To this end, we leverage the recent advancements in depth-conditioned T2I models and propose a novel approach for interactive 3D layout control. We replace the traditional 2D boxes used in layout control with 3D boxes. Furthermore, we revamp the T2I task as a multi-stage generation process, where at each stage, the user can insert, change, and move an object in 3D while preserving objects from earlier stages. We achieve this through our proposed Dynamic Self-Attention (DSA) module and the consistent 3D object translation strategy. Experiments show that our approach can generate complicated scenes based on 3D layouts, boosting the object generation success rate over the standard depth-conditioned T2I methods by 2x. Moreover, it outperforms other methods in comparison in preserving objects under layout changes. Project Page: https://abdo-eldesokey.github.io/build-a-scene/
PDF224November 16, 2024