ChatPaper.aiChatPaper

Transferência de Aprendizado entre Dados MEG e Detecção Cruzada de Fala/Silêncio com Dados Limitados

MEG-to-MEG Transfer Learning and Cross-Task Speech/Silence Detection with Limited Data

February 20, 2026
Autores: Xabier de Zuazo, Vincenzo Verbeni, Eva Navas, Ibon Saratxaga, Mathieu Bourguignon, Nicola Molinaro
cs.AI

Resumo

A decodificação neural eficiente em dados é um desafio central para as interfaces cérebro-computador de fala. Apresentamos a primeira demonstração de aprendizagem por transferência e decodificação cruzada de tarefas para modelos de fala baseados em MEG, abrangendo perceção e produção. Pré-treinamos um modelo baseado no Conformer com 50 horas de dados de audição de um único sujeito e afinamos com apenas 5 minutos por sujeito em 18 participantes. A aprendizagem por transferência produz melhorias consistentes, com ganhos de precisão intra-tarefa de 1-4% e ganhos cruzados maiores de até 5-6%. Não só o pré-treinamento melhora o desempenho dentro de cada tarefa, como também permite uma decodificação cruzada confiável entre a perceção e a produção. Crucialmente, os modelos treinados na produção de fala decodificam a audição passiva acima do acaso, confirmando que as representações aprendidas refletem processos neurais partilhados e não atividade motora específica da tarefa.
English
Data-efficient neural decoding is a central challenge for speech brain-computer interfaces. We present the first demonstration of transfer learning and cross-task decoding for MEG-based speech models spanning perception and production. We pre-train a Conformer-based model on 50 hours of single-subject listening data and fine-tune on just 5 minutes per subject across 18 participants. Transfer learning yields consistent improvements, with in-task accuracy gains of 1-4% and larger cross-task gains of up to 5-6%. Not only does pre-training improve performance within each task, but it also enables reliable cross-task decoding between perception and production. Critically, models trained on speech production decode passive listening above chance, confirming that learned representations reflect shared neural processes rather than task-specific motor activity.
PDF12March 16, 2026