ChatPaper.aiChatPaper

PartNeXt: Um Conjunto de Dados de Nova Geração para a Compreensão de Partes 3D com Granularidade Fina e Hierárquica

PartNeXt: A Next-Generation Dataset for Fine-Grained and Hierarchical 3D Part Understanding

October 23, 2025
Autores: Penghao Wang, Yiyang He, Xin Lv, Yukai Zhou, Lan Xu, Jingyi Yu, Jiayuan Gu
cs.AI

Resumo

Compreender objetos ao nível das suas partes constituintes é fundamental para o avanço da visão computacional, gráficos e robótica. Embora conjuntos de dados como o PartNet tenham impulsionado o progresso na compreensão de partes 3D, a sua dependência de geometrias sem textura e de anotação dependente de especialistas limita a escalabilidade e a usabilidade. Apresentamos o PartNeXt, um conjunto de dados de próxima geração que aborda estas lacunas com mais de 23.000 modelos 3D texturizados de alta qualidade, anotados com etiquetas de partes hierárquicas e de granularidade fina em 50 categorias. Avaliámos o PartNeXt em duas tarefas: (1) segmentação de partes agnóstica à classe, onde os métodos mais avançados (por exemplo, PartField, SAMPart3D) têm dificuldades com partes de granularidade fina e partes folha, e (2) resposta a perguntas centradas em partes 3D, um novo benchmark para LLMs 3D que revela lacunas significativas na fundamentação de vocabulário aberto de partes. Adicionalmente, o treino do Point-SAM no PartNeXt produz ganhos substanciais em relação ao PartNet, sublinhando a qualidade e diversidade superiores do conjunto de dados. Ao combinar anotação escalável, etiquetas conscientes de textura e avaliação multitarefa, o PartNeXt abre novas vias de investigação para a compreensão estruturada de objetos 3D.
English
Understanding objects at the level of their constituent parts is fundamental to advancing computer vision, graphics, and robotics. While datasets like PartNet have driven progress in 3D part understanding, their reliance on untextured geometries and expert-dependent annotation limits scalability and usability. We introduce PartNeXt, a next-generation dataset addressing these gaps with over 23,000 high-quality, textured 3D models annotated with fine-grained, hierarchical part labels across 50 categories. We benchmark PartNeXt on two tasks: (1) class-agnostic part segmentation, where state-of-the-art methods (e.g., PartField, SAMPart3D) struggle with fine-grained and leaf-level parts, and (2) 3D part-centric question answering, a new benchmark for 3D-LLMs that reveals significant gaps in open-vocabulary part grounding. Additionally, training Point-SAM on PartNeXt yields substantial gains over PartNet, underscoring the dataset's superior quality and diversity. By combining scalable annotation, texture-aware labels, and multi-task evaluation, PartNeXt opens new avenues for research in structured 3D understanding.
PDF61February 7, 2026