ChatPaper.aiChatPaper

OmniNOCS: Un conjunto de datos y modelo NOCS unificado para la elevación tridimensional de objetos en 2D

OmniNOCS: A unified NOCS dataset and model for 3D lifting of 2D objects

July 11, 2024
Autores: Akshay Krishnan, Abhijit Kundu, Kevis-Kokitsi Maninis, James Hays, Matthew Brown
cs.AI

Resumen

Proponemos OmniNOCS, un conjunto de datos monoculares a gran escala con mapas de Espacio de Coordenadas Normalizadas en 3D (NOCS), máscaras de objetos y anotaciones de cajas delimitadoras en 3D para escenas interiores y exteriores. OmniNOCS tiene 20 veces más clases de objetos y 200 veces más instancias que los conjuntos de datos NOCS existentes (NOCS-Real275, Wild6D). Utilizamos OmniNOCS para entrenar un modelo novedoso de predicción de NOCS monoculares basado en transformadores (NOCSformer) que puede predecir NOCS precisos, máscaras de instancias y poses a partir de detecciones de objetos en 2D de diversas clases. Es el primer modelo de NOCS que puede generalizarse a una amplia gama de clases cuando se le proporcionan cajas en 2D. Evaluamos nuestro modelo en la tarea de predicción de cajas delimitadoras orientadas en 3D, donde logra resultados comparables a métodos de detección en 3D de última generación como Cube R-CNN. A diferencia de otros métodos de detección en 3D, nuestro modelo también proporciona formas y segmentaciones detalladas y precisas de objetos en 3D. Proponemos un nuevo punto de referencia para la tarea de predicción de NOCS basado en OmniNOCS, que esperamos sirva como una línea base útil para trabajos futuros en esta área. Nuestro conjunto de datos y código estarán disponibles en el sitio web del proyecto: https://omninocs.github.io.
English
We propose OmniNOCS, a large-scale monocular dataset with 3D Normalized Object Coordinate Space (NOCS) maps, object masks, and 3D bounding box annotations for indoor and outdoor scenes. OmniNOCS has 20 times more object classes and 200 times more instances than existing NOCS datasets (NOCS-Real275, Wild6D). We use OmniNOCS to train a novel, transformer-based monocular NOCS prediction model (NOCSformer) that can predict accurate NOCS, instance masks and poses from 2D object detections across diverse classes. It is the first NOCS model that can generalize to a broad range of classes when prompted with 2D boxes. We evaluate our model on the task of 3D oriented bounding box prediction, where it achieves comparable results to state-of-the-art 3D detection methods such as Cube R-CNN. Unlike other 3D detection methods, our model also provides detailed and accurate 3D object shape and segmentation. We propose a novel benchmark for the task of NOCS prediction based on OmniNOCS, which we hope will serve as a useful baseline for future work in this area. Our dataset and code will be at the project website: https://omninocs.github.io.

Summary

AI-Generated Summary

PDF92November 28, 2024