MEG-naar-MEG Transfer Learning en Cross-Taak Spraak/Stilte Detectie met Beperkte Data
MEG-to-MEG Transfer Learning and Cross-Task Speech/Silence Detection with Limited Data
February 20, 2026
Auteurs: Xabier de Zuazo, Vincenzo Verbeni, Eva Navas, Ibon Saratxaga, Mathieu Bourguignon, Nicola Molinaro
cs.AI
Samenvatting
Data-efficiënte neurale decodering vormt een centrale uitdaging voor spraak-hersen-computerinterfaces. Wij presenteren de eerste demonstratie van transfer learning en kruistaak-decodering voor MEG-gebaseerde spraakmodellen die perceptie en productie omspannen. We pre-trainen een Conformer-gebaseerd model op 50 uur aan luisterdata van een enkele proefpersoon en fine-tunen het met slechts 5 minuten data per proefpersoon over 18 deelnemers. Transfer learning levert consistente verbeteringen op, met nauwkeurigheidswinst binnen dezelfde taak van 1-4% en grotere kruistaakwinsten tot 5-6%. Pre-training verbetert niet alleen de prestaties binnen elke taak, maar maakt ook betrouwbare kruistaak-decodering mogelijk tussen perceptie en productie. Cruciaal is dat modellen getraind op spraakproductie, passief luisteren boven kansniveau kunnen decoderen, wat bevestigt dat de geleerde representaties gedeelde neurale processen weerspiegelen in plaats van taakspecifieke motorische activiteit.
English
Data-efficient neural decoding is a central challenge for speech brain-computer interfaces. We present the first demonstration of transfer learning and cross-task decoding for MEG-based speech models spanning perception and production. We pre-train a Conformer-based model on 50 hours of single-subject listening data and fine-tune on just 5 minutes per subject across 18 participants. Transfer learning yields consistent improvements, with in-task accuracy gains of 1-4% and larger cross-task gains of up to 5-6%. Not only does pre-training improve performance within each task, but it also enables reliable cross-task decoding between perception and production. Critically, models trained on speech production decode passive listening above chance, confirming that learned representations reflect shared neural processes rather than task-specific motor activity.