ChatPaper.aiChatPaper

EvMic: Recuperación de sonido sin contacto basada en eventos mediante modelado espacio-temporal efectivo

EvMic: Event-based Non-contact sound recovery from effective spatial-temporal modeling

April 3, 2025
Autores: Hao Yin, Shi Guo, Xu Jia, Xudong XU, Lu Zhang, Si Liu, Dong Wang, Huchuan Lu, Tianfan Xue
cs.AI

Resumen

Cuando las ondas sonoras impactan un objeto, inducen vibraciones que producen cambios visuales de alta frecuencia y sutiles, los cuales pueden utilizarse para recuperar el sonido. Los estudios iniciales siempre enfrentan compensaciones relacionadas con la tasa de muestreo, el ancho de banda, el campo de visión y la simplicidad de la ruta óptica. Los avances recientes en hardware de cámaras de eventos muestran un buen potencial para su aplicación en la recuperación visual de sonido, debido a su capacidad superior para capturar señales de alta frecuencia. Sin embargo, los métodos existentes de recuperación de vibraciones basados en eventos aún no son óptimos para la recuperación de sonido. En este trabajo, proponemos una nueva pipeline para la recuperación de sonido sin contacto, utilizando completamente la información espacio-temporal del flujo de eventos. Primero generamos un gran conjunto de entrenamiento utilizando una novedosa pipeline de simulación. Luego diseñamos una red que aprovecha la escasez de eventos para capturar información espacial y utiliza Mamba para modelar información temporal a largo plazo. Finalmente, entrenamos un bloque de agregación espacial para consolidar información de diferentes ubicaciones y mejorar aún más la calidad de la señal. Para capturar señales de eventos causadas por ondas sonoras, también diseñamos un sistema de imágenes utilizando una matriz láser para mejorar el gradiente y recopilamos múltiples secuencias de datos para pruebas. Los resultados experimentales en datos sintéticos y del mundo real demuestran la efectividad de nuestro método.
English
When sound waves hit an object, they induce vibrations that produce high-frequency and subtle visual changes, which can be used for recovering the sound. Early studies always encounter trade-offs related to sampling rate, bandwidth, field of view, and the simplicity of the optical path. Recent advances in event camera hardware show good potential for its application in visual sound recovery, because of its superior ability in capturing high-frequency signals. However, existing event-based vibration recovery methods are still sub-optimal for sound recovery. In this work, we propose a novel pipeline for non-contact sound recovery, fully utilizing spatial-temporal information from the event stream. We first generate a large training set using a novel simulation pipeline. Then we designed a network that leverages the sparsity of events to capture spatial information and uses Mamba to model long-term temporal information. Lastly, we train a spatial aggregation block to aggregate information from different locations to further improve signal quality. To capture event signals caused by sound waves, we also designed an imaging system using a laser matrix to enhance the gradient and collected multiple data sequences for testing. Experimental results on synthetic and real-world data demonstrate the effectiveness of our method.

Summary

AI-Generated Summary

PDF62April 7, 2025