ChatPaper.aiChatPaper

Conclusão de Nuvem de Pontos com Modelos de Difusão Texto-para-Imagem Pré-treinados

Point-Cloud Completion with Pretrained Text-to-image Diffusion Models

June 18, 2023
Autores: Yoni Kasten, Ohad Rahamim, Gal Chechik
cs.AI

Resumo

Os dados de nuvem de pontos coletados em aplicações do mundo real são frequentemente incompletos. A ausência de dados geralmente ocorre porque os objetos são observados a partir de perspectivas parciais, que capturam apenas um ângulo ou ponto de vista específico. Além disso, os dados podem ser incompletos devido a oclusões e amostragem de baixa resolução. As abordagens existentes de completamento dependem de conjuntos de dados de objetos predefinidos para guiar a completação de nuvens de pontos ruidosas e incompletas. No entanto, essas abordagens têm desempenho insatisfatório quando testadas em objetos Fora da Distribuição (Out-Of-Distribution, OOD), que são pouco representados no conjunto de dados de treinamento. Aqui, aproveitamos os avanços recentes na geração de imagens guiada por texto, que levaram a grandes avanços na geração de formas guiada por texto. Descrevemos uma abordagem chamada SDS-Complete, que utiliza um modelo de difusão pré-treinado de texto para imagem e aproveita a semântica textual de uma nuvem de pontos incompleta de um objeto para obter uma representação completa da superfície. O SDS-Complete pode completar uma variedade de objetos usando otimização em tempo de teste, sem a necessidade de coleta dispendiosa de informações 3D. Avaliamos o SDS-Complete em objetos escaneados incompletos, capturados por sensores de profundidade e scanners LiDAR do mundo real. Constatamos que ele reconstrói efetivamente objetos ausentes em conjuntos de dados comuns, reduzindo a perda de Chamfer em 50%, em média, em comparação com os métodos atuais. Página do projeto: https://sds-complete.github.io/
English
Point-cloud data collected in real-world applications are often incomplete. Data is typically missing due to objects being observed from partial viewpoints, which only capture a specific perspective or angle. Additionally, data can be incomplete due to occlusion and low-resolution sampling. Existing completion approaches rely on datasets of predefined objects to guide the completion of noisy and incomplete, point clouds. However, these approaches perform poorly when tested on Out-Of-Distribution (OOD) objects, that are poorly represented in the training dataset. Here we leverage recent advances in text-guided image generation, which lead to major breakthroughs in text-guided shape generation. We describe an approach called SDS-Complete that uses a pre-trained text-to-image diffusion model and leverages the text semantics of a given incomplete point cloud of an object, to obtain a complete surface representation. SDS-Complete can complete a variety of objects using test-time optimization without expensive collection of 3D information. We evaluate SDS Complete on incomplete scanned objects, captured by real-world depth sensors and LiDAR scanners. We find that it effectively reconstructs objects that are absent from common datasets, reducing Chamfer loss by 50% on average compared with current methods. Project page: https://sds-complete.github.io/
PDF120March 21, 2026