ChatPaper.aiChatPaper

Снимай, Нажимай, Расплющивай: Тактильно информированное трехмерное гауссовское распыление для восстановления сложных поверхностей

Snap-it, Tap-it, Splat-it: Tactile-Informed 3D Gaussian Splatting for Reconstructing Challenging Surfaces

March 29, 2024
Авторы: Mauro Comi, Alessio Tonioni, Max Yang, Jonathan Tremblay, Valts Blukis, Yijiong Lin, Nathan F. Lepora, Laurence Aitchison
cs.AI

Аннотация

Осязание и зрение идут рука об руку, взаимно улучшая нашу способность понимать мир. С исследовательской точки зрения проблема объединения осязания и зрения недостаточно изучена и представляет интересные вызовы. В этой связи мы предлагаем Tactile-Informed 3DGS, новый подход, который интегрирует данные осязания (локальные карты глубины) с данными многозрительного зрения для достижения реконструкции поверхности и синтеза нового вида. Наш метод оптимизирует 3D гауссовы примитивы для точного моделирования геометрии объекта в точках контакта. Создавая фреймворк, который уменьшает пропускание в местах касания, мы достигаем улучшенной реконструкции поверхности, обеспечивая равномерно гладкую карту глубины. Осязание особенно полезно при рассмотрении неламбертовых объектов (например, блестящих или отражающих поверхностей), поскольку современные методы часто не могут точно воссоздать блики. Сочетая зрительное и тактильное восприятие, мы достигаем более точной реконструкции геометрии с меньшим количеством изображений по сравнению с предыдущими методами. Мы проводим оценку на объектах с глянцевыми и отражающими поверхностями и демонстрируем эффективность нашего подхода, предлагая значительные улучшения качества реконструкции.
English
Touch and vision go hand in hand, mutually enhancing our ability to understand the world. From a research perspective, the problem of mixing touch and vision is underexplored and presents interesting challenges. To this end, we propose Tactile-Informed 3DGS, a novel approach that incorporates touch data (local depth maps) with multi-view vision data to achieve surface reconstruction and novel view synthesis. Our method optimises 3D Gaussian primitives to accurately model the object's geometry at points of contact. By creating a framework that decreases the transmittance at touch locations, we achieve a refined surface reconstruction, ensuring a uniformly smooth depth map. Touch is particularly useful when considering non-Lambertian objects (e.g. shiny or reflective surfaces) since contemporary methods tend to fail to reconstruct with fidelity specular highlights. By combining vision and tactile sensing, we achieve more accurate geometry reconstructions with fewer images than prior methods. We conduct evaluation on objects with glossy and reflective surfaces and demonstrate the effectiveness of our approach, offering significant improvements in reconstruction quality.

Summary

AI-Generated Summary

PDF101November 26, 2024