ChatPaper.aiChatPaper

Transferencia de Aprendizaje de MEG a MEG y Detección Cruzada de Habla/Silencio con Datos Limitados

MEG-to-MEG Transfer Learning and Cross-Task Speech/Silence Detection with Limited Data

February 20, 2026
Autores: Xabier de Zuazo, Vincenzo Verbeni, Eva Navas, Ibon Saratxaga, Mathieu Bourguignon, Nicola Molinaro
cs.AI

Resumen

La decodificación neuronal eficiente en datos es un desafío central para las interfaces cerebro-computadora del habla. Presentamos la primera demostración de aprendizaje por transferencia y decodificación cruzada de tareas para modelos de habla basados en MEG que abarcan percepción y producción. Preentrenamos un modelo basado en Conformer con 50 horas de datos de escucha de un único sujeto y ajustamos con solo 5 minutos por sujeto en 18 participantes. El aprendizaje por transferencia produce mejoras consistentes, con ganancias de precisión intratarea del 1-4% y ganancias cruzadas mayores de hasta el 5-6%. No solo el preentrenamiento mejora el rendimiento dentro de cada tarea, sino que también permite una decodificación cruzada confiable entre percepción y producción. Críticamente, los modelos entrenados en producción del habla decodifican la escucha pasiva por encima del nivel de azar, confirmando que las representaciones aprendidas reflejan procesos neurales compartidos en lugar de actividad motora específica de la tarea.
English
Data-efficient neural decoding is a central challenge for speech brain-computer interfaces. We present the first demonstration of transfer learning and cross-task decoding for MEG-based speech models spanning perception and production. We pre-train a Conformer-based model on 50 hours of single-subject listening data and fine-tune on just 5 minutes per subject across 18 participants. Transfer learning yields consistent improvements, with in-task accuracy gains of 1-4% and larger cross-task gains of up to 5-6%. Not only does pre-training improve performance within each task, but it also enables reliable cross-task decoding between perception and production. Critically, models trained on speech production decode passive listening above chance, confirming that learned representations reflect shared neural processes rather than task-specific motor activity.
PDF12February 28, 2026