ChatPaper.aiChatPaper

OpenShape : Mise à l'échelle de la représentation des formes 3D pour une compréhension du monde ouvert

OpenShape: Scaling Up 3D Shape Representation Towards Open-World Understanding

May 18, 2023
Auteurs: Minghua Liu, Ruoxi Shi, Kaiming Kuang, Yinhao Zhu, Xuanlin Li, Shizhong Han, Hong Cai, Fatih Porikli, Hao Su
cs.AI

Résumé

Nous présentons OpenShape, une méthode pour apprendre des représentations conjointes multi-modales du texte, de l'image et des nuages de points. Nous adoptons le cadre d'apprentissage contrastif multi-modal couramment utilisé pour l'alignement des représentations, mais avec un accent particulier sur la mise à l'échelle des représentations 3D afin de permettre une compréhension des formes 3D dans un monde ouvert. Pour y parvenir, nous augmentons les données d'entraînement en combinant plusieurs ensembles de données 3D et proposons plusieurs stratégies pour filtrer et enrichir automatiquement les descriptions textuelles bruitées. Nous explorons et comparons également des stratégies pour mettre à l'échelle les réseaux de base 3D et introduisons un nouveau module d'extraction de négatifs difficiles pour un entraînement plus efficace. Nous évaluons OpenShape sur des benchmarks de classification 3D en zero-shot et démontrons ses capacités supérieures pour la reconnaissance dans un monde ouvert. Plus précisément, OpenShape atteint une précision en zero-shot de 46,8 % sur le benchmark Objaverse-LVIS à 1 156 catégories, contre moins de 10 % pour les méthodes existantes. OpenShape atteint également une précision de 85,3 % sur ModelNet40, surpassant les méthodes de base en zero-shot précédentes de 20 % et performant à égalité avec certaines méthodes entièrement supervisées. De plus, nous montrons que nos embeddings appris encodent une large gamme de concepts visuels et sémantiques (par exemple, sous-catégories, couleur, forme, style) et facilitent les interactions fines entre texte-3D et image-3D. En raison de leur alignement avec les embeddings CLIP, nos représentations de formes apprises peuvent également être intégrées à des modèles basés sur CLIP prêts à l'emploi pour diverses applications, telles que la génération de légendes pour les nuages de points et la génération d'images conditionnées par des nuages de points.
English
We introduce OpenShape, a method for learning multi-modal joint representations of text, image, and point clouds. We adopt the commonly used multi-modal contrastive learning framework for representation alignment, but with a specific focus on scaling up 3D representations to enable open-world 3D shape understanding. To achieve this, we scale up training data by ensembling multiple 3D datasets and propose several strategies to automatically filter and enrich noisy text descriptions. We also explore and compare strategies for scaling 3D backbone networks and introduce a novel hard negative mining module for more efficient training. We evaluate OpenShape on zero-shot 3D classification benchmarks and demonstrate its superior capabilities for open-world recognition. Specifically, OpenShape achieves a zero-shot accuracy of 46.8% on the 1,156-category Objaverse-LVIS benchmark, compared to less than 10% for existing methods. OpenShape also achieves an accuracy of 85.3% on ModelNet40, outperforming previous zero-shot baseline methods by 20% and performing on par with some fully-supervised methods. Furthermore, we show that our learned embeddings encode a wide range of visual and semantic concepts (e.g., subcategories, color, shape, style) and facilitate fine-grained text-3D and image-3D interactions. Due to their alignment with CLIP embeddings, our learned shape representations can also be integrated with off-the-shelf CLIP-based models for various applications, such as point cloud captioning and point cloud-conditioned image generation.
PDF64December 15, 2024