ChatPaper.aiChatPaper

Snap-it, Tap-it, Splat-it: Splatting de Gaussianas 3D Informado por Tato para Reconstrução de Superfícies Desafiadoras

Snap-it, Tap-it, Splat-it: Tactile-Informed 3D Gaussian Splatting for Reconstructing Challenging Surfaces

March 29, 2024
Autores: Mauro Comi, Alessio Tonioni, Max Yang, Jonathan Tremblay, Valts Blukis, Yijiong Lin, Nathan F. Lepora, Laurence Aitchison
cs.AI

Resumo

O tato e a visão caminham lado a lado, aprimorando mutuamente nossa capacidade de compreender o mundo. Do ponto de vista da pesquisa, o problema de combinar tato e visão é pouco explorado e apresenta desafios interessantes. Para isso, propomos o Tactile-Informed 3DGS, uma abordagem inovadora que incorpora dados táteis (mapas de profundidade locais) com dados de visão multivista para alcançar reconstrução de superfície e síntese de novas vistas. Nosso método otimiza primitivas 3D Gaussianas para modelar com precisão a geometria do objeto nos pontos de contato. Ao criar um framework que reduz a transmitância nas localizações de toque, alcançamos uma reconstrução de superfície refinada, garantindo um mapa de profundidade uniformemente suave. O tato é particularmente útil ao considerar objetos não lambertianos (por exemplo, superfícies brilhantes ou reflexivas), uma vez que os métodos contemporâneos tendem a falhar na reconstrução fiel de realces especulares. Ao combinar visão e sensoriamento tátil, alcançamos reconstruções geométricas mais precisas com menos imagens do que os métodos anteriores. Realizamos avaliações em objetos com superfícies brilhantes e reflexivas e demonstramos a eficácia de nossa abordagem, oferecendo melhorias significativas na qualidade da reconstrução.
English
Touch and vision go hand in hand, mutually enhancing our ability to understand the world. From a research perspective, the problem of mixing touch and vision is underexplored and presents interesting challenges. To this end, we propose Tactile-Informed 3DGS, a novel approach that incorporates touch data (local depth maps) with multi-view vision data to achieve surface reconstruction and novel view synthesis. Our method optimises 3D Gaussian primitives to accurately model the object's geometry at points of contact. By creating a framework that decreases the transmittance at touch locations, we achieve a refined surface reconstruction, ensuring a uniformly smooth depth map. Touch is particularly useful when considering non-Lambertian objects (e.g. shiny or reflective surfaces) since contemporary methods tend to fail to reconstruct with fidelity specular highlights. By combining vision and tactile sensing, we achieve more accurate geometry reconstructions with fewer images than prior methods. We conduct evaluation on objects with glossy and reflective surfaces and demonstrate the effectiveness of our approach, offering significant improvements in reconstruction quality.
PDF101November 26, 2024