ChatPaper.aiChatPaper

Konsistenz^2: Konsistentes und schnelles 3D-Malen mit latenten Konsistenzmodellen

Consistency^2: Consistent and Fast 3D Painting with Latent Consistency Models

June 17, 2024
Autoren: Tianfu Wang, Anton Obukhov, Konrad Schindler
cs.AI

Zusammenfassung

Die generative 3D-Malerei zählt zu den wichtigsten Produktivitätssteigerern im Management und Recycling von hochauflösenden 3D-Ressourcen. Seit Text-zu-Bild-Modelle für die Inferenz auf Verbraucherhardware zugänglich wurden, hat sich die Leistung von 3D-Malmethoden kontinuierlich verbessert und nähert sich derzeit einem Plateau. Im Kern der meisten solcher Modelle liegt die Rauschunterdrückungsdiffusion im latenten Raum, ein inhärent zeitaufwändiger iterativer Prozess. In jüngster Zeit wurden mehrere Techniken entwickelt, um die Generierung zu beschleunigen und die Sampling-Iterationen um Größenordnungen zu reduzieren. Diese Techniken, die für die generative Bildgebung in 2D konzipiert sind, werden jedoch nicht mit Anleitungen geliefert, wie sie in den 3D-Bereich übertragen werden können. In diesem Paper beheben wir diese Schwäche, indem wir eine Anpassung des Latent Consistency Models (LCM) für die vorliegende Aufgabe vorschlagen. Wir analysieren die Stärken und Schwächen des vorgeschlagenen Modells und bewerten es quantitativ und qualitativ. Basierend auf der Studie von Beispielen des Objaverse-Datensatzes erzielt unsere 3D-Maltechnik in allen Bewertungen eine starke Präferenz. Der Quellcode ist verfügbar unter https://github.com/kongdai123/consistency2.
English
Generative 3D Painting is among the top productivity boosters in high-resolution 3D asset management and recycling. Ever since text-to-image models became accessible for inference on consumer hardware, the performance of 3D Painting methods has consistently improved and is currently close to plateauing. At the core of most such models lies denoising diffusion in the latent space, an inherently time-consuming iterative process. Multiple techniques have been developed recently to accelerate generation and reduce sampling iterations by orders of magnitude. Designed for 2D generative imaging, these techniques do not come with recipes for lifting them into 3D. In this paper, we address this shortcoming by proposing a Latent Consistency Model (LCM) adaptation for the task at hand. We analyze the strengths and weaknesses of the proposed model and evaluate it quantitatively and qualitatively. Based on the Objaverse dataset samples study, our 3D painting method attains strong preference in all evaluations. Source code is available at https://github.com/kongdai123/consistency2.

Summary

AI-Generated Summary

PDF31December 6, 2024