PartNeXt: Новое поколение наборов данных для детального и иерархического распознавания 3D-деталей
PartNeXt: A Next-Generation Dataset for Fine-Grained and Hierarchical 3D Part Understanding
October 23, 2025
Авторы: Penghao Wang, Yiyang He, Xin Lv, Yukai Zhou, Lan Xu, Jingyi Yu, Jiayuan Gu
cs.AI
Аннотация
Понимание объектов на уровне их составных частей является фундаментальной задачей для развития компьютерного зрения, компьютерной графики и робототехники. Хотя такие наборы данных, как PartNet, способствовали прогрессу в понимании 3D-частей, их зависимость от нетекстурированных геометрий и аннотаций, требующих участия экспертов, ограничивает масштабируемость и практическую применимость. Мы представляем PartNeXt — набор данных следующего поколения, который устраняет эти пробелы, предлагая более 23 000 высококачественных текстурированных 3D-моделей, аннотированных детальными иерархическими метками частей для 50 категорий. Мы проводим тестирование PartNeXt на двух задачах: (1) класс-независимая сегментация частей, где современные методы (например, PartField, SAMPart3D) испытывают трудности с детализированными и концевыми (leaf-level) частями, и (2) 3D-вопросно-ответная система, ориентированная на части объекта, — новый эталон для 3D-LLM, который выявляет значительные пробелы в открытом словарном заземлении частей. Кроме того, обучение Point-SAM на PartNeXt демонстрирует существенное преимущество по сравнению с PartNet, подчеркивая превосходное качество и разнообразие набора данных. Сочетая масштабируемую аннотацию, текстуро-зависимые метки и многозадачную оценку, PartNeXt открывает новые направления для исследований в области структурированного понимания 3D-объектов.
English
Understanding objects at the level of their constituent parts is fundamental
to advancing computer vision, graphics, and robotics. While datasets like
PartNet have driven progress in 3D part understanding, their reliance on
untextured geometries and expert-dependent annotation limits scalability and
usability. We introduce PartNeXt, a next-generation dataset addressing these
gaps with over 23,000 high-quality, textured 3D models annotated with
fine-grained, hierarchical part labels across 50 categories. We benchmark
PartNeXt on two tasks: (1) class-agnostic part segmentation, where
state-of-the-art methods (e.g., PartField, SAMPart3D) struggle with
fine-grained and leaf-level parts, and (2) 3D part-centric question answering,
a new benchmark for 3D-LLMs that reveals significant gaps in open-vocabulary
part grounding. Additionally, training Point-SAM on PartNeXt yields substantial
gains over PartNet, underscoring the dataset's superior quality and diversity.
By combining scalable annotation, texture-aware labels, and multi-task
evaluation, PartNeXt opens new avenues for research in structured 3D
understanding.