ChatPaper.aiChatPaper

Завершение облаков точек с использованием предобученных моделей диффузии для генерации изображений из текста

Point-Cloud Completion with Pretrained Text-to-image Diffusion Models

June 18, 2023
Авторы: Yoni Kasten, Ohad Rahamim, Gal Chechik
cs.AI

Аннотация

Данные в виде облаков точек, собранные в реальных приложениях, часто являются неполными. Данные обычно отсутствуют из-за того, что объекты наблюдаются с частичных точек зрения, которые захватывают только определенный ракурс или угол. Кроме того, данные могут быть неполными из-за окклюзии и низкого разрешения сэмплирования. Существующие подходы к восстановлению полагаются на наборы данных предопределенных объектов для восстановления зашумленных и неполных облаков точек. Однако эти подходы показывают низкую эффективность при тестировании на объектах, выходящих за пределы распределения (Out-Of-Distribution, OOD), которые плохо представлены в обучающем наборе данных. В данной работе мы используем последние достижения в области генерации изображений на основе текста, которые привели к значительным прорывам в генерации форм с использованием текстовых описаний. Мы описываем подход под названием SDS-Complete, который использует предварительно обученную модель диффузии для генерации изображений из текста и использует семантику текста для заданного неполного облака точек объекта, чтобы получить полное представление поверхности. SDS-Complete может восстанавливать разнообразные объекты с использованием оптимизации на этапе тестирования без дорогостоящего сбора 3D-информации. Мы оцениваем SDS-Complete на неполных отсканированных объектах, захваченных реальными датчиками глубины и лидарными сканерами. Мы обнаруживаем, что он эффективно восстанавливает объекты, отсутствующие в распространенных наборах данных, снижая потери по метрике Chamfer в среднем на 50% по сравнению с современными методами. Страница проекта: https://sds-complete.github.io/
English
Point-cloud data collected in real-world applications are often incomplete. Data is typically missing due to objects being observed from partial viewpoints, which only capture a specific perspective or angle. Additionally, data can be incomplete due to occlusion and low-resolution sampling. Existing completion approaches rely on datasets of predefined objects to guide the completion of noisy and incomplete, point clouds. However, these approaches perform poorly when tested on Out-Of-Distribution (OOD) objects, that are poorly represented in the training dataset. Here we leverage recent advances in text-guided image generation, which lead to major breakthroughs in text-guided shape generation. We describe an approach called SDS-Complete that uses a pre-trained text-to-image diffusion model and leverages the text semantics of a given incomplete point cloud of an object, to obtain a complete surface representation. SDS-Complete can complete a variety of objects using test-time optimization without expensive collection of 3D information. We evaluate SDS Complete on incomplete scanned objects, captured by real-world depth sensors and LiDAR scanners. We find that it effectively reconstructs objects that are absent from common datasets, reducing Chamfer loss by 50% on average compared with current methods. Project page: https://sds-complete.github.io/
PDF80December 15, 2024