PartNeXt: un dataset di nuova generazione per la comprensione fine e gerarchica di parti 3D
PartNeXt: A Next-Generation Dataset for Fine-Grained and Hierarchical 3D Part Understanding
October 23, 2025
Autori: Penghao Wang, Yiyang He, Xin Lv, Yukai Zhou, Lan Xu, Jingyi Yu, Jiayuan Gu
cs.AI
Abstract
Comprendere gli oggetti a livello delle loro parti costitutive è fondamentale per progredire nella visione artificiale, nella computer grafica e nella robotica. Sebbene dataset come PartNet abbiano favorito progressi nella comprensione delle parti 3D, la loro dipendenza da geometrie non texturizzate e annotazioni basate su esperti ne limita la scalabilità e l'usabilità. Presentiamo PartNeXt, un dataset di nuova generazione che affronta queste lacune con oltre 23.000 modelli 3D di alta qualità e texturizzati, annotati con etichette di parti granulari e gerarchiche in 50 categorie. Valutiamo PartNeXt su due compiti: (1) segmentazione delle parti agnostica rispetto alla classe, dove i metodi all'avanguardia (ad esempio, PartField, SAMPart3D) faticano con parti granulari e a livello di foglia, e (2) question answering incentrato sulle parti 3D, un nuovo benchmark per i modelli linguistici 3D che rivela lacune significative nel grounding delle parti a vocabolario aperto. Inoltre, l'addestramento di Point-SAM su PartNeXt produce miglioramenti sostanziali rispetto a PartNet, sottolineando la qualità e la diversità superiori del dataset. Combinando annotazioni scalabili, etichette consapevoli della texture e valutazione multi-task, PartNeXt apre nuove strade per la ricerca nella comprensione strutturata del 3D.
English
Understanding objects at the level of their constituent parts is fundamental
to advancing computer vision, graphics, and robotics. While datasets like
PartNet have driven progress in 3D part understanding, their reliance on
untextured geometries and expert-dependent annotation limits scalability and
usability. We introduce PartNeXt, a next-generation dataset addressing these
gaps with over 23,000 high-quality, textured 3D models annotated with
fine-grained, hierarchical part labels across 50 categories. We benchmark
PartNeXt on two tasks: (1) class-agnostic part segmentation, where
state-of-the-art methods (e.g., PartField, SAMPart3D) struggle with
fine-grained and leaf-level parts, and (2) 3D part-centric question answering,
a new benchmark for 3D-LLMs that reveals significant gaps in open-vocabulary
part grounding. Additionally, training Point-SAM on PartNeXt yields substantial
gains over PartNet, underscoring the dataset's superior quality and diversity.
By combining scalable annotation, texture-aware labels, and multi-task
evaluation, PartNeXt opens new avenues for research in structured 3D
understanding.