OpenShape: Escalando la Representación de Formas 3D hacia la Comprensión del Mundo Abierto
OpenShape: Scaling Up 3D Shape Representation Towards Open-World Understanding
May 18, 2023
Autores: Minghua Liu, Ruoxi Shi, Kaiming Kuang, Yinhao Zhu, Xuanlin Li, Shizhong Han, Hong Cai, Fatih Porikli, Hao Su
cs.AI
Resumen
Presentamos OpenShape, un método para aprender representaciones conjuntas multimodales de texto, imágenes y nubes de puntos. Adoptamos el marco de aprendizaje contrastivo multimodal comúnmente utilizado para la alineación de representaciones, pero con un enfoque específico en escalar las representaciones 3D para permitir la comprensión de formas 3D en un mundo abierto. Para lograr esto, escalamos los datos de entrenamiento mediante el ensamblaje de múltiples conjuntos de datos 3D y proponemos varias estrategias para filtrar y enriquecer automáticamente las descripciones de texto ruidosas. También exploramos y comparamos estrategias para escalar las redes principales 3D e introducimos un nuevo módulo de minería de negativos difíciles para un entrenamiento más eficiente. Evaluamos OpenShape en benchmarks de clasificación 3D de cero disparos y demostramos sus capacidades superiores para el reconocimiento en un mundo abierto. Específicamente, OpenShape logra una precisión de cero disparos del 46.8% en el benchmark Objaverse-LVIS de 1,156 categorías, en comparación con menos del 10% de los métodos existentes. OpenShape también alcanza una precisión del 85.3% en ModelNet40, superando a los métodos de referencia de cero disparos anteriores en un 20% y desempeñándose a la par con algunos métodos completamente supervisados. Además, mostramos que nuestros embeddings aprendidos codifican una amplia gama de conceptos visuales y semánticos (por ejemplo, subcategorías, color, forma, estilo) y facilitan interacciones detalladas entre texto-3D e imagen-3D. Debido a su alineación con los embeddings de CLIP, nuestras representaciones de formas aprendidas también pueden integrarse con modelos basados en CLIP listos para usar en diversas aplicaciones, como la generación de descripciones de nubes de puntos y la generación de imágenes condicionadas por nubes de puntos.
English
We introduce OpenShape, a method for learning multi-modal joint
representations of text, image, and point clouds. We adopt the commonly used
multi-modal contrastive learning framework for representation alignment, but
with a specific focus on scaling up 3D representations to enable open-world 3D
shape understanding. To achieve this, we scale up training data by ensembling
multiple 3D datasets and propose several strategies to automatically filter and
enrich noisy text descriptions. We also explore and compare strategies for
scaling 3D backbone networks and introduce a novel hard negative mining module
for more efficient training. We evaluate OpenShape on zero-shot 3D
classification benchmarks and demonstrate its superior capabilities for
open-world recognition. Specifically, OpenShape achieves a zero-shot accuracy
of 46.8% on the 1,156-category Objaverse-LVIS benchmark, compared to less than
10% for existing methods. OpenShape also achieves an accuracy of 85.3% on
ModelNet40, outperforming previous zero-shot baseline methods by 20% and
performing on par with some fully-supervised methods. Furthermore, we show that
our learned embeddings encode a wide range of visual and semantic concepts
(e.g., subcategories, color, shape, style) and facilitate fine-grained text-3D
and image-3D interactions. Due to their alignment with CLIP embeddings, our
learned shape representations can also be integrated with off-the-shelf
CLIP-based models for various applications, such as point cloud captioning and
point cloud-conditioned image generation.