Snap-it, Tap-it, Splat-it: Representación 3D con Splatting Gaussiano Informado por Tacto para la Reconstrucción de Superficies Desafiantes
Snap-it, Tap-it, Splat-it: Tactile-Informed 3D Gaussian Splatting for Reconstructing Challenging Surfaces
March 29, 2024
Autores: Mauro Comi, Alessio Tonioni, Max Yang, Jonathan Tremblay, Valts Blukis, Yijiong Lin, Nathan F. Lepora, Laurence Aitchison
cs.AI
Resumen
El tacto y la visión van de la mano, potenciándose mutuamente para mejorar nuestra capacidad de comprender el mundo. Desde una perspectiva de investigación, el problema de combinar el tacto y la visión está poco explorado y presenta desafíos interesantes. Con este fin, proponemos Tactile-Informed 3DGS, un enfoque novedoso que incorpora datos táctiles (mapas de profundidad local) con datos de visión multivista para lograr la reconstrucción de superficies y la síntesis de nuevas vistas. Nuestro método optimiza primitivas de Gaussianas 3D para modelar con precisión la geometría del objeto en los puntos de contacto. Al crear un marco que reduce la transmitancia en las ubicaciones táctiles, logramos una reconstrucción de superficie refinada, asegurando un mapa de profundidad uniformemente suave. El tacto es particularmente útil al considerar objetos no lambertianos (por ejemplo, superficies brillantes o reflectantes), ya que los métodos contemporáneos tienden a fallar al reconstruir con fidelidad los reflejos especulares. Al combinar la visión y la percepción táctil, logramos reconstrucciones geométricas más precisas con menos imágenes que los métodos anteriores. Realizamos evaluaciones en objetos con superficies brillantes y reflectantes y demostramos la efectividad de nuestro enfoque, ofreciendo mejoras significativas en la calidad de la reconstrucción.
English
Touch and vision go hand in hand, mutually enhancing our ability to
understand the world. From a research perspective, the problem of mixing touch
and vision is underexplored and presents interesting challenges. To this end,
we propose Tactile-Informed 3DGS, a novel approach that incorporates touch data
(local depth maps) with multi-view vision data to achieve surface
reconstruction and novel view synthesis. Our method optimises 3D Gaussian
primitives to accurately model the object's geometry at points of contact. By
creating a framework that decreases the transmittance at touch locations, we
achieve a refined surface reconstruction, ensuring a uniformly smooth depth
map. Touch is particularly useful when considering non-Lambertian objects (e.g.
shiny or reflective surfaces) since contemporary methods tend to fail to
reconstruct with fidelity specular highlights. By combining vision and tactile
sensing, we achieve more accurate geometry reconstructions with fewer images
than prior methods. We conduct evaluation on objects with glossy and reflective
surfaces and demonstrate the effectiveness of our approach, offering
significant improvements in reconstruction quality.Summary
AI-Generated Summary