ChatPaper.aiChatPaper

HyperDreamer: Hyperrealistische 3D-Inhaltsgenerierung und -Bearbeitung aus einem einzelnen Bild

HyperDreamer: Hyper-Realistic 3D Content Generation and Editing from a Single Image

December 7, 2023
Autoren: Tong Wu, Zhibing Li, Shuai Yang, Pan Zhang, Xinggang Pan, Jiaqi Wang, Dahua Lin, Ziwei Liu
cs.AI

Zusammenfassung

Die Erstellung von 3D-Inhalten aus einem einzelnen Bild ist eine langjährige, aber äußerst wünschenswerte Aufgabe. Jüngste Fortschritte führen 2D-Diffusions-Priors ein, die vernünftige Ergebnisse liefern. Bestehende Methoden sind jedoch nicht hyperrealistisch genug für die Nutzung nach der Generierung, da Benutzer die resultierenden 3D-Inhalte nicht aus einem vollen Blickwinkel betrachten, rendern und bearbeiten können. Um diese Herausforderungen zu bewältigen, stellen wir HyperDreamer mit mehreren Schlüsseldesigns und ansprechenden Eigenschaften vor: 1) Betrachtbar: 360-Grad-Mesh-Modellierung mit hochauflösenden Texturen ermöglicht die Erstellung visuell ansprechender 3D-Modelle aus einem vollen Spektrum von Beobachtungspunkten. 2) Renderbar: Fein abgestufte semantische Segmentierung und datengetriebene Priors werden als Leitfaden integriert, um vernünftige Albedo-, Rauheits- und Spekulareigenschaften der Materialien zu erlernen, was eine semantisch bewusste, beliebige Materialschätzung ermöglicht. 3) Bearbeitbar: Für ein generiertes Modell oder ihre eigenen Daten können Benutzer interaktiv jede Region mit wenigen Klicks auswählen und die Textur effizient mit textbasierter Anleitung bearbeiten. Umfangreiche Experimente demonstrieren die Wirksamkeit von HyperDreamer bei der Modellierung regionsbewusster Materialien mit hochauflösenden Texturen und der Ermöglichung benutzerfreundlicher Bearbeitung. Wir glauben, dass HyperDreamer das Potenzial hat, die Erstellung von 3D-Inhalten voranzutreiben und Anwendungen in verschiedenen Domänen zu finden.
English
3D content creation from a single image is a long-standing yet highly desirable task. Recent advances introduce 2D diffusion priors, yielding reasonable results. However, existing methods are not hyper-realistic enough for post-generation usage, as users cannot view, render and edit the resulting 3D content from a full range. To address these challenges, we introduce HyperDreamer with several key designs and appealing properties: 1) Viewable: 360 degree mesh modeling with high-resolution textures enables the creation of visually compelling 3D models from a full range of observation points. 2) Renderable: Fine-grained semantic segmentation and data-driven priors are incorporated as guidance to learn reasonable albedo, roughness, and specular properties of the materials, enabling semantic-aware arbitrary material estimation. 3) Editable: For a generated model or their own data, users can interactively select any region via a few clicks and efficiently edit the texture with text-based guidance. Extensive experiments demonstrate the effectiveness of HyperDreamer in modeling region-aware materials with high-resolution textures and enabling user-friendly editing. We believe that HyperDreamer holds promise for advancing 3D content creation and finding applications in various domains.
PDF220December 15, 2024