ChatPaper.aiChatPaper

OmniNOCS: Um conjunto de dados e modelo NOCS unificado para a elevação 3D de objetos 2D.

OmniNOCS: A unified NOCS dataset and model for 3D lifting of 2D objects

July 11, 2024
Autores: Akshay Krishnan, Abhijit Kundu, Kevis-Kokitsi Maninis, James Hays, Matthew Brown
cs.AI

Resumo

Propomos o OmniNOCS, um conjunto de dados monocular em larga escala com mapas de Espaço de Coordenadas Normalizadas de Objetos 3D (NOCS), máscaras de objetos e anotações de caixas delimitadoras 3D para cenas internas e externas. O OmniNOCS possui 20 vezes mais classes de objetos e 200 vezes mais instâncias do que os conjuntos de dados NOCS existentes (NOCS-Real275, Wild6D). Utilizamos o OmniNOCS para treinar um modelo de previsão NOCS monocular baseado em transformadores (NOCSformer) que pode prever NOCS precisos, máscaras de instância e poses a partir de detecções de objetos 2D em diversas classes. É o primeiro modelo NOCS que consegue generalizar para uma ampla gama de classes quando solicitado com caixas 2D. Avaliamos nosso modelo na tarefa de previsão de caixa delimitadora orientada 3D, onde ele alcança resultados comparáveis aos métodos de detecção 3D de ponta, como o Cube R-CNN. Ao contrário de outros métodos de detecção 3D, nosso modelo também fornece formas de objetos 3D e segmentação detalhadas e precisas. Propomos um novo benchmark para a tarefa de previsão NOCS com base no OmniNOCS, que esperamos que sirva como uma linha de base útil para trabalhos futuros nesta área. Nosso conjunto de dados e código estarão disponíveis no site do projeto: https://omninocs.github.io.
English
We propose OmniNOCS, a large-scale monocular dataset with 3D Normalized Object Coordinate Space (NOCS) maps, object masks, and 3D bounding box annotations for indoor and outdoor scenes. OmniNOCS has 20 times more object classes and 200 times more instances than existing NOCS datasets (NOCS-Real275, Wild6D). We use OmniNOCS to train a novel, transformer-based monocular NOCS prediction model (NOCSformer) that can predict accurate NOCS, instance masks and poses from 2D object detections across diverse classes. It is the first NOCS model that can generalize to a broad range of classes when prompted with 2D boxes. We evaluate our model on the task of 3D oriented bounding box prediction, where it achieves comparable results to state-of-the-art 3D detection methods such as Cube R-CNN. Unlike other 3D detection methods, our model also provides detailed and accurate 3D object shape and segmentation. We propose a novel benchmark for the task of NOCS prediction based on OmniNOCS, which we hope will serve as a useful baseline for future work in this area. Our dataset and code will be at the project website: https://omninocs.github.io.
PDF92November 28, 2024