Atlas3D: Physikalisch eingeschränkte selbsttragende Text-zu-3D für Simulation und Fertigung
Atlas3D: Physically Constrained Self-Supporting Text-to-3D for Simulation and Fabrication
May 28, 2024
Autoren: Yunuo Chen, Tianyi Xie, Zeshun Zong, Xuan Li, Feng Gao, Yin Yang, Ying Nian Wu, Chenfanfu Jiang
cs.AI
Zusammenfassung
Bestehende auf Diffusion basierende Methoden zur Text-zu-3D-Generierung konzentrieren sich hauptsächlich auf die Erzeugung visuell realistischer Formen und Erscheinungsbilder, wobei oft die physikalischen Einschränkungen vernachlässigt werden, die für nachgelagerte Aufgaben erforderlich sind. Die generierten Modelle scheitern häufig daran, das Gleichgewicht zu halten, wenn sie in physikbasierte Simulationen oder 3D-gedruckt platziert werden. Dieses Gleichgewicht ist entscheidend, um die Designabsichten der Benutzer in interaktiven Spielen, verkörpertem KI und Robotik zu erfüllen, wo stabile Modelle für eine zuverlässige Interaktion benötigt werden. Darüber hinaus stellen stabile Modelle sicher, dass 3D-gedruckte Objekte, wie Figuren zur Heimdekoration, eigenständig stehen können, ohne zusätzliche Stützen zu benötigen. Um diese Lücke zu schließen, stellen wir Atlas3D vor, eine automatische und einfach umsetzbare Methode, die bestehende auf Score Distillation Sampling (SDS) basierende Text-zu-3D-Tools verbessert. Atlas3D gewährleistet die Generierung selbsttragender 3D-Modelle, die den physikalischen Gesetzen der Stabilität unter Schwerkraft, Kontakt und Reibung entsprechen. Unser Ansatz kombiniert eine neuartige differentiell simulierte verlustbehaftete Funktion mit physikalisch inspirierter Regularisierung, die entweder als Verfeinerungs- oder als Nachbearbeitungsmodul für bestehende Frameworks dient. Wir überprüfen die Wirksamkeit von Atlas3D durch umfangreiche Generierungsaufgaben und validieren die resultierenden 3D-Modelle sowohl in simulierten als auch in realen Umgebungen.
English
Existing diffusion-based text-to-3D generation methods primarily focus on
producing visually realistic shapes and appearances, often neglecting the
physical constraints necessary for downstream tasks. Generated models
frequently fail to maintain balance when placed in physics-based simulations or
3D printed. This balance is crucial for satisfying user design intentions in
interactive gaming, embodied AI, and robotics, where stable models are needed
for reliable interaction. Additionally, stable models ensure that 3D-printed
objects, such as figurines for home decoration, can stand on their own without
requiring additional supports. To fill this gap, we introduce Atlas3D, an
automatic and easy-to-implement method that enhances existing Score
Distillation Sampling (SDS)-based text-to-3D tools. Atlas3D ensures the
generation of self-supporting 3D models that adhere to physical laws of
stability under gravity, contact, and friction. Our approach combines a novel
differentiable simulation-based loss function with physically inspired
regularization, serving as either a refinement or a post-processing module for
existing frameworks. We verify Atlas3D's efficacy through extensive generation
tasks and validate the resulting 3D models in both simulated and real-world
environments.Summary
AI-Generated Summary