ChatPaper.aiChatPaper

Kleidungsstück3DGen: 3D Kleidungsstück-Stilisierung und Texturerzeugung

Garment3DGen: 3D Garment Stylization and Texture Generation

March 27, 2024
Autoren: Nikolaos Sarafianos, Tuur Stuyck, Xiaoyu Xiang, Yilei Li, Jovan Popovic, Rakesh Ranjan
cs.AI

Zusammenfassung

Wir stellen Garment3DGen vor, eine neue Methode zur Synthese von 3D-Kleidungsstücken aus einem Basismodell anhand eines einzelnen Eingabebildes als Anleitung. Unser vorgeschlagener Ansatz ermöglicht es Benutzern, 3D-texturierte Kleidungsstücke basierend auf sowohl realen als auch synthetischen Bildern zu generieren, wie z.B. solche, die durch Texteingaben erzeugt wurden. Die generierten Assets können direkt auf menschliche Körper angelegt und simuliert werden. Zunächst nutzen wir den jüngsten Fortschritt der Bild-zu-3D-Diffusionsmethoden, um 3D-Kleidungsgeometrien zu generieren. Da diese Geometrien jedoch nicht direkt für nachgelagerte Aufgaben genutzt werden können, schlagen wir vor, sie als Pseudo-Referenz zu verwenden und ein Gitterverformungsoptimierungsverfahren einzurichten, das ein Basistemplategitter verformt, um mit dem generierten 3D-Ziel übereinzustimmen. Zweitens führen wir sorgfältig konzipierte Verluste ein, die es dem Eingabebasismodell ermöglichen, sich frei zum gewünschten Ziel zu verformen, dabei jedoch die Gitterqualität und -topologie bewahren, so dass sie simuliert werden können. Schließlich generiert ein Texturschätzmodul hochwertige Texturkarten, die global und lokal konsistent sind und die Eingabeanleitung präzise erfassen, was es uns ermöglicht, die generierten 3D-Assets zu rendern. Mit Garment3DGen können Benutzer das texturierte 3D-Kleidungsstück ihrer Wahl ohne künstlerische Intervention generieren. Man kann eine textuelle Anweisung bereitstellen, die das gewünschte Kleidungsstück beschreibt, um ein simulationsfähiges 3D-Asset zu generieren. Wir präsentieren eine Vielzahl von quantitativen und qualitativen Vergleichen zu verschiedenen Assets, sowohl realen als auch generierten, und zeigen Anwendungsfälle auf, wie man simulationsfähige 3D-Kleidungsstücke generieren kann.
English
We introduce Garment3DGen a new method to synthesize 3D garment assets from a base mesh given a single input image as guidance. Our proposed approach allows users to generate 3D textured clothes based on both real and synthetic images, such as those generated by text prompts. The generated assets can be directly draped and simulated on human bodies. First, we leverage the recent progress of image to 3D diffusion methods to generate 3D garment geometries. However, since these geometries cannot be utilized directly for downstream tasks, we propose to use them as pseudo ground-truth and set up a mesh deformation optimization procedure that deforms a base template mesh to match the generated 3D target. Second, we introduce carefully designed losses that allow the input base mesh to freely deform towards the desired target, yet preserve mesh quality and topology such that they can be simulated. Finally, a texture estimation module generates high-fidelity texture maps that are globally and locally consistent and faithfully capture the input guidance, allowing us to render the generated 3D assets. With Garment3DGen users can generate the textured 3D garment of their choice without the need of artist intervention. One can provide a textual prompt describing the garment they desire to generate a simulation-ready 3D asset. We present a plethora of quantitative and qualitative comparisons on various assets both real and generated and provide use-cases of how one can generate simulation-ready 3D garments.

Summary

AI-Generated Summary

PDF243December 15, 2024