ChatPaper.aiChatPaper

OpenShape: Skalierung der 3D-Formrepräsentation hin zum Verständnis offener Welten

OpenShape: Scaling Up 3D Shape Representation Towards Open-World Understanding

May 18, 2023
Autoren: Minghua Liu, Ruoxi Shi, Kaiming Kuang, Yinhao Zhu, Xuanlin Li, Shizhong Han, Hong Cai, Fatih Porikli, Hao Su
cs.AI

Zusammenfassung

Wir stellen OpenShape vor, eine Methode zum Lernen multimodaler gemeinsamer Repräsentationen von Text, Bildern und Punktwolken. Wir verwenden das häufig genutzte multimodale kontrastive Lernframework zur Repräsentationsausrichtung, jedoch mit einem speziellen Fokus auf die Skalierung von 3D-Repräsentationen, um das Verständnis von 3D-Formen in offenen Welten zu ermöglichen. Um dies zu erreichen, skalieren wir die Trainingsdaten durch die Zusammenführung mehrerer 3D-Datensätze und schlagen mehrere Strategien vor, um verrauschte Textbeschreibungen automatisch zu filtern und anzureichern. Wir untersuchen und vergleichen außerdem Strategien zur Skalierung von 3D-Backbone-Netzwerken und führen ein neuartiges Hard-Negative-Mining-Modul für ein effizienteres Training ein. Wir evaluieren OpenShape anhand von Zero-Shot-3D-Klassifikationsbenchmarks und demonstrieren seine überlegenen Fähigkeiten für die Erkennung in offenen Welten. Insbesondere erreicht OpenShape eine Zero-Shot-Genauigkeit von 46,8 % auf dem 1.156-Kategorien-Objaverse-LVIS-Benchmark, verglichen mit weniger als 10 % bei bestehenden Methoden. OpenShape erreicht außerdem eine Genauigkeit von 85,3 % auf ModelNet40, übertrifft damit frühere Zero-Shot-Baseline-Methoden um 20 % und liegt auf Augenhöhe mit einigen vollständig überwachten Methoden. Darüber hinaus zeigen wir, dass unsere gelernten Einbettungen eine breite Palette visueller und semantischer Konzepte (z. B. Unterkategorien, Farbe, Form, Stil) kodieren und fein abgestimmte Text-3D- und Bild-3D-Interaktionen ermöglichen. Aufgrund ihrer Ausrichtung mit CLIP-Einbettungen können unsere gelernten Formrepräsentationen auch in verfügbare CLIP-basierte Modelle für verschiedene Anwendungen integriert werden, wie z. B. Punktwolkenbeschriftung und punktwolkenbedingte Bildgenerierung.
English
We introduce OpenShape, a method for learning multi-modal joint representations of text, image, and point clouds. We adopt the commonly used multi-modal contrastive learning framework for representation alignment, but with a specific focus on scaling up 3D representations to enable open-world 3D shape understanding. To achieve this, we scale up training data by ensembling multiple 3D datasets and propose several strategies to automatically filter and enrich noisy text descriptions. We also explore and compare strategies for scaling 3D backbone networks and introduce a novel hard negative mining module for more efficient training. We evaluate OpenShape on zero-shot 3D classification benchmarks and demonstrate its superior capabilities for open-world recognition. Specifically, OpenShape achieves a zero-shot accuracy of 46.8% on the 1,156-category Objaverse-LVIS benchmark, compared to less than 10% for existing methods. OpenShape also achieves an accuracy of 85.3% on ModelNet40, outperforming previous zero-shot baseline methods by 20% and performing on par with some fully-supervised methods. Furthermore, we show that our learned embeddings encode a wide range of visual and semantic concepts (e.g., subcategories, color, shape, style) and facilitate fine-grained text-3D and image-3D interactions. Due to their alignment with CLIP embeddings, our learned shape representations can also be integrated with off-the-shelf CLIP-based models for various applications, such as point cloud captioning and point cloud-conditioned image generation.
PDF64December 15, 2024