ChatPaper.aiChatPaper

3DiffTection: 3D-детекция объектов с использованием геометрически осознанных признаков диффузии

3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features

November 7, 2023
Авторы: Chenfeng Xu, Huan Ling, Sanja Fidler, Or Litany
cs.AI

Аннотация

Мы представляем 3DiffTection — современный метод для обнаружения 3D-объектов по одиночным изображениям, использующий признаки из 3D-осознанной диффузионной модели. Аннотирование крупномасштабных данных изображений для 3D-детекции требует значительных ресурсов и времени. В последнее время предобученные крупные диффузионные модели изображений стали популярными как эффективные экстракторы признаков для задач 2D-восприятия. Однако эти признаки изначально обучаются на парных данных текста и изображений, которые не оптимизированы для 3D-задач, и часто демонстрируют разрыв доменов при применении к целевым данным. Наш подход устраняет эти разрывы с помощью двух специализированных стратегий настройки: геометрической и семантической. Для геометрической настройки мы дообучаем диффузионную модель для синтеза новых видов на основе одного изображения, вводя новый эпиполярный оператор деформации. Эта задача отвечает двум ключевым критериям: необходимость 3D-осознанности и зависимость исключительно от данных изображений с известной позой, которые легко доступны (например, из видео) и не требуют ручной аннотации. Для семантической доработки мы дополнительно обучаем модель на целевых данных с контролем детекции. Обе фазы настройки используют ControlNet для сохранения целостности исходных возможностей признаков. На заключительном этапе мы используем эти улучшенные возможности для проведения ансамбля предсказаний во время тестирования на множестве виртуальных точек зрения. Благодаря нашей методологии мы получаем 3D-осознанные признаки, адаптированные для 3D-детекции и превосходно справляющиеся с идентификацией соответствий точек между видами. В результате наша модель становится мощным 3D-детектором, значительно превосходящим предыдущие эталоны, например, Cube-RCNN, предшественника в однокадровой 3D-детекции, на 9,43% по метрике AP3D на наборе данных Omni3D-ARkitscene. Кроме того, 3DiffTection демонстрирует высокую эффективность использования данных и обобщаемость на кросс-доменные данные.
English
We present 3DiffTection, a state-of-the-art method for 3D object detection from single images, leveraging features from a 3D-aware diffusion model. Annotating large-scale image data for 3D detection is resource-intensive and time-consuming. Recently, pretrained large image diffusion models have become prominent as effective feature extractors for 2D perception tasks. However, these features are initially trained on paired text and image data, which are not optimized for 3D tasks, and often exhibit a domain gap when applied to the target data. Our approach bridges these gaps through two specialized tuning strategies: geometric and semantic. For geometric tuning, we fine-tune a diffusion model to perform novel view synthesis conditioned on a single image, by introducing a novel epipolar warp operator. This task meets two essential criteria: the necessity for 3D awareness and reliance solely on posed image data, which are readily available (e.g., from videos) and does not require manual annotation. For semantic refinement, we further train the model on target data with detection supervision. Both tuning phases employ ControlNet to preserve the integrity of the original feature capabilities. In the final step, we harness these enhanced capabilities to conduct a test-time prediction ensemble across multiple virtual viewpoints. Through our methodology, we obtain 3D-aware features that are tailored for 3D detection and excel in identifying cross-view point correspondences. Consequently, our model emerges as a powerful 3D detector, substantially surpassing previous benchmarks, e.g., Cube-RCNN, a precedent in single-view 3D detection by 9.43\% in AP3D on the Omni3D-ARkitscene dataset. Furthermore, 3DiffTection showcases robust data efficiency and generalization to cross-domain data.
PDF140December 15, 2024