OpenShape: Масштабирование представления трехмерных форм для понимания открытого мира
OpenShape: Scaling Up 3D Shape Representation Towards Open-World Understanding
May 18, 2023
Авторы: Minghua Liu, Ruoxi Shi, Kaiming Kuang, Yinhao Zhu, Xuanlin Li, Shizhong Han, Hong Cai, Fatih Porikli, Hao Su
cs.AI
Аннотация
Мы представляем OpenShape — метод для обучения мультимодальных совместных представлений текста, изображений и облаков точек. Мы используем широко применяемую мультимодальную контрастную обучающую структуру для выравнивания представлений, но с особым акцентом на масштабировании 3D-представлений для обеспечения понимания 3D-форм в открытом мире. Для достижения этой цели мы увеличиваем объем обучающих данных путем объединения нескольких 3D-наборов и предлагаем несколько стратегий для автоматической фильтрации и обогащения зашумленных текстовых описаний. Мы также исследуем и сравниваем стратегии масштабирования базовых сетей для 3D и представляем новый модуль поиска сложных негативных примеров для более эффективного обучения. Мы оцениваем OpenShape на тестах для классификации 3D-объектов с нулевым обучением и демонстрируем его превосходные возможности для распознавания в открытом мире. В частности, OpenShape достигает точности 46,8% на тесте Objaverse-LVIS с 1156 категориями, в то время как существующие методы показывают менее 10%. OpenShape также достигает точности 85,3% на ModelNet40, превосходя предыдущие методы с нулевым обучением на 20% и показывая результаты, сопоставимые с некоторыми полностью контролируемыми методами. Кроме того, мы показываем, что наши обученные эмбеддинги кодируют широкий спектр визуальных и семантических концепций (например, подкатегории, цвет, форма, стиль) и способствуют детализированному взаимодействию текста и 3D, а также изображений и 3D. Благодаря их совместимости с эмбеддингами CLIP, наши обученные представления форм также могут быть интегрированы с готовыми моделями на основе CLIP для различных приложений, таких как генерация описаний облаков точек и создание изображений на основе облаков точек.
English
We introduce OpenShape, a method for learning multi-modal joint
representations of text, image, and point clouds. We adopt the commonly used
multi-modal contrastive learning framework for representation alignment, but
with a specific focus on scaling up 3D representations to enable open-world 3D
shape understanding. To achieve this, we scale up training data by ensembling
multiple 3D datasets and propose several strategies to automatically filter and
enrich noisy text descriptions. We also explore and compare strategies for
scaling 3D backbone networks and introduce a novel hard negative mining module
for more efficient training. We evaluate OpenShape on zero-shot 3D
classification benchmarks and demonstrate its superior capabilities for
open-world recognition. Specifically, OpenShape achieves a zero-shot accuracy
of 46.8% on the 1,156-category Objaverse-LVIS benchmark, compared to less than
10% for existing methods. OpenShape also achieves an accuracy of 85.3% on
ModelNet40, outperforming previous zero-shot baseline methods by 20% and
performing on par with some fully-supervised methods. Furthermore, we show that
our learned embeddings encode a wide range of visual and semantic concepts
(e.g., subcategories, color, shape, style) and facilitate fine-grained text-3D
and image-3D interactions. Due to their alignment with CLIP embeddings, our
learned shape representations can also be integrated with off-the-shelf
CLIP-based models for various applications, such as point cloud captioning and
point cloud-conditioned image generation.