ChatPaper.aiChatPaper

ORIGEN : Ancrage de l'orientation 3D en génération texte-image sans apprentissage préalable

ORIGEN: Zero-Shot 3D Orientation Grounding in Text-to-Image Generation

March 28, 2025
Auteurs: Yunhong Min, Daehyeon Choi, Kyeongmin Yeo, Jihyun Lee, Minhyuk Sung
cs.AI

Résumé

Nous présentons ORIGEN, la première méthode zero-shot pour l'ancrage d'orientation 3D dans la génération d'images à partir de texte, applicable à plusieurs objets et catégories diverses. Alors que les travaux précédents sur l'ancrage spatial dans la génération d'images se sont principalement concentrés sur le positionnement 2D, ils manquent de contrôle sur l'orientation 3D. Pour remédier à cela, nous proposons une approche d'échantillonnage guidé par récompense utilisant un modèle discriminatif pré-entraîné pour l'estimation de l'orientation 3D et un modèle de flux génératif texte-à-image en une étape. Bien que l'optimisation basée sur l'ascension de gradient soit un choix naturel pour le guidage par récompense, elle peine à maintenir le réalisme des images. À la place, nous adoptons une approche basée sur l'échantillonnage utilisant la dynamique de Langevin, qui étend l'ascension de gradient en injectant simplement du bruit aléatoire—nécessitant seulement une ligne de code supplémentaire. De plus, nous introduisons un redimensionnement temporel adaptatif basé sur la fonction de récompense pour accélérer la convergence. Nos expériences montrent qu'ORIGEN surpasse à la fois les méthodes basées sur l'entraînement et les méthodes de guidage au moment du test, selon des métriques quantitatives et des études utilisateurs.
English
We introduce ORIGEN, the first zero-shot method for 3D orientation grounding in text-to-image generation across multiple objects and diverse categories. While previous work on spatial grounding in image generation has mainly focused on 2D positioning, it lacks control over 3D orientation. To address this, we propose a reward-guided sampling approach using a pretrained discriminative model for 3D orientation estimation and a one-step text-to-image generative flow model. While gradient-ascent-based optimization is a natural choice for reward-based guidance, it struggles to maintain image realism. Instead, we adopt a sampling-based approach using Langevin dynamics, which extends gradient ascent by simply injecting random noise--requiring just a single additional line of code. Additionally, we introduce adaptive time rescaling based on the reward function to accelerate convergence. Our experiments show that ORIGEN outperforms both training-based and test-time guidance methods across quantitative metrics and user studies.

Summary

AI-Generated Summary

PDF243March 31, 2025