ChatPaper.aiChatPaper

Complétion de nuages de points avec des modèles de diffusion texte-image préentraînés

Point-Cloud Completion with Pretrained Text-to-image Diffusion Models

June 18, 2023
Auteurs: Yoni Kasten, Ohad Rahamim, Gal Chechik
cs.AI

Résumé

Les données de nuages de points collectées dans des applications réelles sont souvent incomplètes. Les données manquent généralement en raison d'objets observés sous des angles partiels, qui ne capturent qu'une perspective ou un angle spécifique. De plus, les données peuvent être incomplètes en raison d'occlusions et d'un échantillonnage à faible résolution. Les approches existantes de complétion s'appuient sur des ensembles de données d'objets prédéfinis pour guider la complétion de nuages de points bruyants et incomplets. Cependant, ces approches obtiennent de mauvais résultats lorsqu'elles sont testées sur des objets hors distribution (Out-Of-Distribution, OOD), qui sont mal représentés dans l'ensemble de données d'entraînement. Ici, nous exploitons les avancées récentes en génération d'images guidée par texte, qui ont conduit à des percées majeures dans la génération de formes guidée par texte. Nous décrivons une approche appelée SDS-Complete qui utilise un modèle de diffusion pré-entraîné de texte à image et exploite la sémantique textuelle d'un nuage de points incomplet d'un objet donné, pour obtenir une représentation de surface complète. SDS-Complete peut compléter une variété d'objets en utilisant une optimisation au moment du test sans la collecte coûteuse d'informations 3D. Nous évaluons SDS-Complete sur des objets scannés incomplets, capturés par des capteurs de profondeur et des scanners LiDAR du monde réel. Nous constatons qu'il reconstruit efficacement des objets absents des ensembles de données courants, réduisant la perte de Chamfer de 50 % en moyenne par rapport aux méthodes actuelles. Page du projet : https://sds-complete.github.io/
English
Point-cloud data collected in real-world applications are often incomplete. Data is typically missing due to objects being observed from partial viewpoints, which only capture a specific perspective or angle. Additionally, data can be incomplete due to occlusion and low-resolution sampling. Existing completion approaches rely on datasets of predefined objects to guide the completion of noisy and incomplete, point clouds. However, these approaches perform poorly when tested on Out-Of-Distribution (OOD) objects, that are poorly represented in the training dataset. Here we leverage recent advances in text-guided image generation, which lead to major breakthroughs in text-guided shape generation. We describe an approach called SDS-Complete that uses a pre-trained text-to-image diffusion model and leverages the text semantics of a given incomplete point cloud of an object, to obtain a complete surface representation. SDS-Complete can complete a variety of objects using test-time optimization without expensive collection of 3D information. We evaluate SDS Complete on incomplete scanned objects, captured by real-world depth sensors and LiDAR scanners. We find that it effectively reconstructs objects that are absent from common datasets, reducing Chamfer loss by 50% on average compared with current methods. Project page: https://sds-complete.github.io/
PDF80December 15, 2024