ChatPaper.aiChatPaper

Snap-it, Tap-it, Splat-it: Taktile-informiertes 3D-Gauß-Splatting zur Rekonstruktion anspruchsvoller Oberflächen

Snap-it, Tap-it, Splat-it: Tactile-Informed 3D Gaussian Splatting for Reconstructing Challenging Surfaces

March 29, 2024
Autoren: Mauro Comi, Alessio Tonioni, Max Yang, Jonathan Tremblay, Valts Blukis, Yijiong Lin, Nathan F. Lepora, Laurence Aitchison
cs.AI

Zusammenfassung

Berührung und Sehen gehen Hand in Hand und verbessern gegenseitig unsere Fähigkeit, die Welt zu verstehen. Aus einer Forschungsperspektive ist das Problem der Kombination von Berührung und Sehen untererforscht und stellt interessante Herausforderungen dar. Zu diesem Zweck schlagen wir Tactile-Informed 3DGS vor, einen neuartigen Ansatz, der Berührungsdaten (lokale Tiefenkarten) mit Multi-View-Visionsdaten kombiniert, um Oberflächenrekonstruktion und Synthese neuer Ansichten zu erreichen. Unsere Methode optimiert 3D-Gauß-Primitive, um die Geometrie des Objekts an Berührungspunkten genau zu modellieren. Durch die Schaffung eines Rahmens, der die Transmittanz an Berührungsorten verringert, erreichen wir eine verfeinerte Oberflächenrekonstruktion und gewährleisten eine gleichmäßig glatte Tiefenkarte. Berührung ist besonders nützlich bei der Betrachtung von nicht-lambert'schen Objekten (z. B. glänzende oder reflektierende Oberflächen), da zeitgenössische Methoden dazu neigen, spektrale Highlights nicht genau zu rekonstruieren. Durch die Kombination von Seh- und taktilem Sensorik erreichen wir genauere Geometrierekonstruktionen mit weniger Bildern als bisherige Methoden. Wir evaluieren Objekte mit glänzenden und reflektierenden Oberflächen und zeigen die Wirksamkeit unseres Ansatzes auf, indem wir signifikante Verbesserungen in der Rekonstruktionsqualität bieten.
English
Touch and vision go hand in hand, mutually enhancing our ability to understand the world. From a research perspective, the problem of mixing touch and vision is underexplored and presents interesting challenges. To this end, we propose Tactile-Informed 3DGS, a novel approach that incorporates touch data (local depth maps) with multi-view vision data to achieve surface reconstruction and novel view synthesis. Our method optimises 3D Gaussian primitives to accurately model the object's geometry at points of contact. By creating a framework that decreases the transmittance at touch locations, we achieve a refined surface reconstruction, ensuring a uniformly smooth depth map. Touch is particularly useful when considering non-Lambertian objects (e.g. shiny or reflective surfaces) since contemporary methods tend to fail to reconstruct with fidelity specular highlights. By combining vision and tactile sensing, we achieve more accurate geometry reconstructions with fewer images than prior methods. We conduct evaluation on objects with glossy and reflective surfaces and demonstrate the effectiveness of our approach, offering significant improvements in reconstruction quality.

Summary

AI-Generated Summary

PDF101November 26, 2024