ChatPaper.aiChatPaper

Deel123: Deelbewuste 3D-reconstructie vanuit een enkelvoudig beeld

Part123: Part-aware 3D Reconstruction from a Single-view Image

May 27, 2024
Auteurs: Anran Liu, Cheng Lin, Yuan Liu, Xiaoxiao Long, Zhiyang Dou, Hao-Xiang Guo, Ping Luo, Wenping Wang
cs.AI

Samenvatting

Recentelijk heeft de opkomst van diffusiemodellen nieuwe mogelijkheden geopend voor reconstructie vanuit één beeld. Echter, alle bestaande methoden representeren het doelobject als een gesloten mesh zonder enige structurele informatie, waardoor de op delen gebaseerde structuur, die cruciaal is voor veel downstream-toepassingen, van de gereconstrueerde vorm wordt verwaarloosd. Bovendien lijden de gegenereerde meshes meestal aan grote ruis, ongelijke oppervlakken en vage texturen, wat het verkrijgen van bevredigende deelsegmenten met behulp van 3D-segmentatietechnieken bemoeilijkt. In dit artikel presenteren we Part123, een nieuw raamwerk voor deelbewuste 3D-reconstructie vanuit een enkel beeld. We gebruiken eerst diffusiemodellen om multiview-consistente beelden te genereren vanuit een gegeven beeld, en maken vervolgens gebruik van het Segment Anything Model (SAM), dat een krachtige generalisatiecapaciteit toont op willekeurige objecten, om multiview-segmentatiemaskers te genereren. Om op delen gebaseerde 2D-informatie effectief in 3D-reconstructie te integreren en inconsistentie te hanteren, introduceren we contrastief leren in een neurale rendering-raamwerk om een deelbewuste kenmerkruimte te leren op basis van de multiview-segmentatiemaskers. Er is ook een op clustering gebaseerd algoritme ontwikkeld om automatisch 3D-deelsegmentatieresultaten af te leiden uit de gereconstrueerde modellen. Experimenten tonen aan dat onze methode 3D-modellen kan genereren met hoogwaardige gesegmenteerde delen op verschillende objecten. In vergelijking met bestaande ongestructureerde reconstructiemethoden, profiteren de deelbewuste 3D-modellen van onze methode enkele belangrijke toepassingen, waaronder kenmerkbehoudende reconstructie, primitief passen en 3D-vormbewerking.
English
Recently, the emergence of diffusion models has opened up new opportunities for single-view reconstruction. However, all the existing methods represent the target object as a closed mesh devoid of any structural information, thus neglecting the part-based structure, which is crucial for many downstream applications, of the reconstructed shape. Moreover, the generated meshes usually suffer from large noises, unsmooth surfaces, and blurry textures, making it challenging to obtain satisfactory part segments using 3D segmentation techniques. In this paper, we present Part123, a novel framework for part-aware 3D reconstruction from a single-view image. We first use diffusion models to generate multiview-consistent images from a given image, and then leverage Segment Anything Model (SAM), which demonstrates powerful generalization ability on arbitrary objects, to generate multiview segmentation masks. To effectively incorporate 2D part-based information into 3D reconstruction and handle inconsistency, we introduce contrastive learning into a neural rendering framework to learn a part-aware feature space based on the multiview segmentation masks. A clustering-based algorithm is also developed to automatically derive 3D part segmentation results from the reconstructed models. Experiments show that our method can generate 3D models with high-quality segmented parts on various objects. Compared to existing unstructured reconstruction methods, the part-aware 3D models from our method benefit some important applications, including feature-preserving reconstruction, primitive fitting, and 3D shape editing.
PDF121February 8, 2026