PartNeXt: Een Datasets van de Nieuwe Generatie voor Fijnmazig en Hiërarchisch 3D-onderdeelbegrip
PartNeXt: A Next-Generation Dataset for Fine-Grained and Hierarchical 3D Part Understanding
October 23, 2025
Auteurs: Penghao Wang, Yiyang He, Xin Lv, Yukai Zhou, Lan Xu, Jingyi Yu, Jiayuan Gu
cs.AI
Samenvatting
Het begrijpen van objecten op het niveau van hun samenstellende onderdelen is fundamenteel voor de vooruitgang van computer vision, grafische toepassingen en robotica. Hoewel datasets zoals PartNet vooruitgang hebben gestimuleerd in het begrip van 3D-onderdelen, beperkt hun afhankelijkheid van ongetextureerde geometrieën en expert-afhankelijke annotatie de schaalbaarheid en bruikbaarheid. Wij introduceren PartNeXt, een next-generation dataset die deze tekortkomingen aanpakt met meer dan 23.000 hoogwaardige, getextureerde 3D-modellen, geannoteerd met fijnmazige, hiërarchische onderdeellabels over 50 categorieën. We evalueren PartNeXt op twee taken: (1) klasse-agnostische onderdeelsegmentatie, waarbij state-of-the-art methoden (zoals PartField en SAMPart3D) moeite hebben met fijnmazige en bladniveau-onderdelen, en (2) 3D onderdeelgerichte vraag-antwoordtaken, een nieuwe benchmark voor 3D-LLM's die significante tekortkomingen blootlegt in open-vocabulary onderdeelherkenning. Daarnaast levert training van Point-SAM op PartNeXt aanzienlijke verbeteringen op ten opzichte van PartNet, wat de superieure kwaliteit en diversiteit van de dataset onderstreept. Door schaalbare annotatie, textuurbewuste labels en multi-task evaluatie te combineren, opent PartNeXt nieuwe onderzoeksrichtingen in gestructureerd 3D-begrip.
English
Understanding objects at the level of their constituent parts is fundamental
to advancing computer vision, graphics, and robotics. While datasets like
PartNet have driven progress in 3D part understanding, their reliance on
untextured geometries and expert-dependent annotation limits scalability and
usability. We introduce PartNeXt, a next-generation dataset addressing these
gaps with over 23,000 high-quality, textured 3D models annotated with
fine-grained, hierarchical part labels across 50 categories. We benchmark
PartNeXt on two tasks: (1) class-agnostic part segmentation, where
state-of-the-art methods (e.g., PartField, SAMPart3D) struggle with
fine-grained and leaf-level parts, and (2) 3D part-centric question answering,
a new benchmark for 3D-LLMs that reveals significant gaps in open-vocabulary
part grounding. Additionally, training Point-SAM on PartNeXt yields substantial
gains over PartNet, underscoring the dataset's superior quality and diversity.
By combining scalable annotation, texture-aware labels, and multi-task
evaluation, PartNeXt opens new avenues for research in structured 3D
understanding.