ChatPaper.aiChatPaper

Snap-it, Tap-it, Splat-it: Tactiel-geïnformeerde 3D Gaussian Splatting voor het reconstrueren van uitdagende oppervlakken

Snap-it, Tap-it, Splat-it: Tactile-Informed 3D Gaussian Splatting for Reconstructing Challenging Surfaces

March 29, 2024
Auteurs: Mauro Comi, Alessio Tonioni, Max Yang, Jonathan Tremblay, Valts Blukis, Yijiong Lin, Nathan F. Lepora, Laurence Aitchison
cs.AI

Samenvatting

Aanraking en zicht gaan hand in hand en versterken elkaar in ons vermogen om de wereld te begrijpen. Vanuit een onderzoeksperspectief is het probleem van het combineren van aanraking en zicht onderbelicht en biedt het interessante uitdagingen. Daarom stellen we Tactile-Informed 3DGS voor, een nieuwe aanpak die tactiele data (lokale dieptekaarten) combineert met multi-view visuele data om oppervlakreconstructie en synthese van nieuwe gezichtspunten te bereiken. Onze methode optimaliseert 3D Gaussische primitieven om de geometrie van het object nauwkeurig te modelleren op contactpunten. Door een raamwerk te creëren dat de transmissie op aanraaklocaties vermindert, bereiken we een verfijnde oppervlakreconstructie, wat zorgt voor een uniform gladde dieptekaart. Aanraking is vooral nuttig bij het overwegen van niet-Lambertiaanse objecten (bijv. glanzende of reflecterende oppervlakken), omdat hedendaagse methoden vaak falen in het nauwkeurig reconstrueren van speculaire hooglichten. Door zicht en tactiele waarneming te combineren, bereiken we nauwkeurigere geometrische reconstructies met minder afbeeldingen dan eerdere methoden. We evalueren onze aanpak op objecten met glanzende en reflecterende oppervlakken en demonstreren de effectiviteit ervan, wat aanzienlijke verbeteringen in de reconstructiekwaliteit biedt.
English
Touch and vision go hand in hand, mutually enhancing our ability to understand the world. From a research perspective, the problem of mixing touch and vision is underexplored and presents interesting challenges. To this end, we propose Tactile-Informed 3DGS, a novel approach that incorporates touch data (local depth maps) with multi-view vision data to achieve surface reconstruction and novel view synthesis. Our method optimises 3D Gaussian primitives to accurately model the object's geometry at points of contact. By creating a framework that decreases the transmittance at touch locations, we achieve a refined surface reconstruction, ensuring a uniformly smooth depth map. Touch is particularly useful when considering non-Lambertian objects (e.g. shiny or reflective surfaces) since contemporary methods tend to fail to reconstruct with fidelity specular highlights. By combining vision and tactile sensing, we achieve more accurate geometry reconstructions with fewer images than prior methods. We conduct evaluation on objects with glossy and reflective surfaces and demonstrate the effectiveness of our approach, offering significant improvements in reconstruction quality.
PDF101November 26, 2024