Trasferimento di Apprendimento da MEG a MEG e Rilevamento Discriminativo Voce/Silenzio con Dati Limitati
MEG-to-MEG Transfer Learning and Cross-Task Speech/Silence Detection with Limited Data
February 20, 2026
Autori: Xabier de Zuazo, Vincenzo Verbeni, Eva Navas, Ibon Saratxaga, Mathieu Bourguignon, Nicola Molinaro
cs.AI
Abstract
La decodifica neurale efficiente dal punto di vista dei dati rappresenta una sfida centrale per le interfacce cervello-computer per il linguaggio. Presentiamo la prima dimostrazione di transfer learning e decodifica cross-task per modelli di linguaggio basati su MEG che abbracciano percezione e produzione. Addestriamo preliminarmente un modello basato su Conformer su 50 ore di dati di ascolto di un singolo soggetto e ottimizziamo il modello utilizzando soli 5 minuti di dati per soggetto su 18 partecipanti. Il transfer learning produce miglioramenti consistenti, con guadagni di accuratezza intra-task dell'1-4% e guadagni cross-task maggiori fino al 5-6%. Non solo il pre-addestramento migliora le prestazioni all'interno di ciascun compito, ma consente anche un'affidabile decodifica cross-task tra percezione e produzione. In modo cruciale, i modelli addestrati sulla produzione del linguaggio decodificano l'ascolto passivo al di sopra del livello casuale, confermando che le rappresentazioni apprese riflettono processi neurali condivisi piuttosto che attività motoria specifica del compito.
English
Data-efficient neural decoding is a central challenge for speech brain-computer interfaces. We present the first demonstration of transfer learning and cross-task decoding for MEG-based speech models spanning perception and production. We pre-train a Conformer-based model on 50 hours of single-subject listening data and fine-tune on just 5 minutes per subject across 18 participants. Transfer learning yields consistent improvements, with in-task accuracy gains of 1-4% and larger cross-task gains of up to 5-6%. Not only does pre-training improve performance within each task, but it also enables reliable cross-task decoding between perception and production. Critically, models trained on speech production decode passive listening above chance, confirming that learned representations reflect shared neural processes rather than task-specific motor activity.