ChatPaper.aiChatPaper

OpenShape: Ampliando a Representação de Formas 3D para a Compreensão do Mundo Aberto

OpenShape: Scaling Up 3D Shape Representation Towards Open-World Understanding

May 18, 2023
Autores: Minghua Liu, Ruoxi Shi, Kaiming Kuang, Yinhao Zhu, Xuanlin Li, Shizhong Han, Hong Cai, Fatih Porikli, Hao Su
cs.AI

Resumo

Apresentamos o OpenShape, um método para aprender representações conjuntas multimodais de texto, imagem e nuvens de pontos. Adotamos o framework de aprendizado contrastivo multimodal comumente utilizado para alinhamento de representações, mas com um foco específico em escalar representações 3D para permitir a compreensão de formas 3D em cenários de mundo aberto. Para alcançar isso, escalamos os dados de treinamento ao combinar múltiplos conjuntos de dados 3D e propomos várias estratégias para filtrar e enriquecer automaticamente descrições textuais ruidosas. Também exploramos e comparamos estratégias para escalar redes de backbone 3D e introduzimos um novo módulo de mineração de negativos difíceis para um treinamento mais eficiente. Avaliamos o OpenShape em benchmarks de classificação 3D zero-shot e demonstramos suas capacidades superiores para reconhecimento em mundo aberto. Especificamente, o OpenShape alcança uma precisão zero-shot de 46,8% no benchmark Objaverse-LVIS com 1.156 categorias, em comparação com menos de 10% para métodos existentes. O OpenShape também alcança uma precisão de 85,3% no ModelNet40, superando métodos baselines zero-shot anteriores em 20% e desempenhando de forma equivalente a alguns métodos totalmente supervisionados. Além disso, mostramos que nossos embeddings aprendidos codificam uma ampla gama de conceitos visuais e semânticos (por exemplo, subcategorias, cor, forma, estilo) e facilitam interações textuais-3D e imagem-3D de granularidade fina. Devido ao seu alinhamento com embeddings CLIP, nossas representações de forma aprendidas também podem ser integradas com modelos baseados em CLIP prontos para uso em diversas aplicações, como legendagem de nuvens de pontos e geração de imagens condicionadas por nuvens de pontos.
English
We introduce OpenShape, a method for learning multi-modal joint representations of text, image, and point clouds. We adopt the commonly used multi-modal contrastive learning framework for representation alignment, but with a specific focus on scaling up 3D representations to enable open-world 3D shape understanding. To achieve this, we scale up training data by ensembling multiple 3D datasets and propose several strategies to automatically filter and enrich noisy text descriptions. We also explore and compare strategies for scaling 3D backbone networks and introduce a novel hard negative mining module for more efficient training. We evaluate OpenShape on zero-shot 3D classification benchmarks and demonstrate its superior capabilities for open-world recognition. Specifically, OpenShape achieves a zero-shot accuracy of 46.8% on the 1,156-category Objaverse-LVIS benchmark, compared to less than 10% for existing methods. OpenShape also achieves an accuracy of 85.3% on ModelNet40, outperforming previous zero-shot baseline methods by 20% and performing on par with some fully-supervised methods. Furthermore, we show that our learned embeddings encode a wide range of visual and semantic concepts (e.g., subcategories, color, shape, style) and facilitate fine-grained text-3D and image-3D interactions. Due to their alignment with CLIP embeddings, our learned shape representations can also be integrated with off-the-shelf CLIP-based models for various applications, such as point cloud captioning and point cloud-conditioned image generation.
PDF74April 26, 2026