ChatPaper.aiChatPaper

PartNeXt: Ein Datensatz der nächsten Generation für detailliertes und hierarchisches 3D-Teilverständnis

PartNeXt: A Next-Generation Dataset for Fine-Grained and Hierarchical 3D Part Understanding

October 23, 2025
papers.authors: Penghao Wang, Yiyang He, Xin Lv, Yukai Zhou, Lan Xu, Jingyi Yu, Jiayuan Gu
cs.AI

papers.abstract

Das Verständnis von Objekten auf der Ebene ihrer Bestandteile ist grundlegend für Fortschritte in Computer Vision, Grafik und Robotik. Während Datensätze wie PartNet die Entwicklung im Bereich des 3D-Teileverständnisses vorangetrieben haben, begrenzen ihre Abhängigkeit von texturlosen Geometrien und expertenabhängigen Annotationen die Skalierbarkeit und Nutzbarkeit. Wir stellen PartNeXt vor, einen Datensatz der nächsten Generation, der diese Lücken mit über 23.000 hochwertigen, texturierten 3D-Modellen schließt, die mit feingranularen, hierarchischen Teilelabels über 50 Kategorien hinweg annotiert sind. Wir evaluieren PartNeXt an zwei Aufgaben: (1) klassenagnostische Teilesegmentierung, bei der State-of-the-Art-Methoden (z.B. PartField, SAMPart3D) mit feingranularen und Blattelementen kämpfen, und (2) 3D-teilezentriertes Frage-Antworten, ein neuer Benchmark für 3D-LLMs, der erhebliche Lücken in der open-vocabulary Teileverortung aufzeigt. Zudem erzielt das Training von Point-SAM auf PartNeXt deutliche Verbesserungen gegenüber PartNet, was die überlegene Qualität und Vielfalt des Datensatzes unterstreicht. Durch die Kombination von skalierbarer Annotation, texturbewussten Labels und Multi-Task-Evaluation eröffnet PartNeXt neue Wege für die Forschung im Bereich des strukturierten 3D-Verständnisses.
English
Understanding objects at the level of their constituent parts is fundamental to advancing computer vision, graphics, and robotics. While datasets like PartNet have driven progress in 3D part understanding, their reliance on untextured geometries and expert-dependent annotation limits scalability and usability. We introduce PartNeXt, a next-generation dataset addressing these gaps with over 23,000 high-quality, textured 3D models annotated with fine-grained, hierarchical part labels across 50 categories. We benchmark PartNeXt on two tasks: (1) class-agnostic part segmentation, where state-of-the-art methods (e.g., PartField, SAMPart3D) struggle with fine-grained and leaf-level parts, and (2) 3D part-centric question answering, a new benchmark for 3D-LLMs that reveals significant gaps in open-vocabulary part grounding. Additionally, training Point-SAM on PartNeXt yields substantial gains over PartNet, underscoring the dataset's superior quality and diversity. By combining scalable annotation, texture-aware labels, and multi-task evaluation, PartNeXt opens new avenues for research in structured 3D understanding.
PDF41December 1, 2025