ChatPaper.aiChatPaper

Un oggetto vale 64x64 pixel: generazione di oggetti 3D tramite diffusione di immagini

An Object is Worth 64x64 Pixels: Generating 3D Object via Image Diffusion

August 6, 2024
Autori: Xingguang Yan, Han-Hung Lee, Ziyu Wan, Angel X. Chang
cs.AI

Abstract

Introduciamo un nuovo approccio per generare modelli 3D realistici con mappe UV attraverso una rappresentazione denominata "Immagini Oggetto". Questo approccio racchiude la geometria della superficie, l'aspetto e le strutture delle patch all'interno di un'immagine di 64x64 pixel, convertendo efficacemente forme 3D complesse in un formato 2D più gestibile. In questo modo, affrontiamo le sfide dell'irregolarità sia geometrica che semantica intrinseca nelle mesh poligonali. Questo metodo ci consente di utilizzare direttamente modelli di generazione di immagini, come i Diffusion Transformer, per la generazione di forme 3D. Valutato sul dataset ABO, le nostre forme generate con strutture di patch raggiungono un FID della nuvola di punti comparabile ai recenti modelli generativi 3D, supportando naturalmente la generazione di materiali PBR.
English
We introduce a new approach for generating realistic 3D models with UV maps through a representation termed "Object Images." This approach encapsulates surface geometry, appearance, and patch structures within a 64x64 pixel image, effectively converting complex 3D shapes into a more manageable 2D format. By doing so, we address the challenges of both geometric and semantic irregularity inherent in polygonal meshes. This method allows us to use image generation models, such as Diffusion Transformers, directly for 3D shape generation. Evaluated on the ABO dataset, our generated shapes with patch structures achieve point cloud FID comparable to recent 3D generative models, while naturally supporting PBR material generation.
PDF403November 28, 2024