Modelos de Fundação em EEG: Progressos, Avaliação Comparativa e Problemas em Aberto
EEG Foundation Models: Progresses, Benchmarking, and Open Problems
January 25, 2026
Autores: Dingkun Liu, Yuheng Chen, Zhu Chen, Zhenyao Cui, Yaozhi Wen, Jiayu An, Jingwei Luo, Dongrui Wu
cs.AI
Resumo
Os modelos de fundo de eletroencefalografia (EEG) emergiram recentemente como um paradigma promissor para interfaces cérebro-computador (BCIs), com o objetivo de aprender representações neurais transferíveis a partir de gravações heterogéneas em larga escala. Apesar dos rápidos progressos, faltam comparações justas e abrangentes dos modelos de fundo de EEG existentes, devido a objetivos de pré-treinamento inconsistentes, escolhas de pré-processamento e protocolos de avaliação a jusante. Este artigo preenche esta lacuna. Primeiro, revemos 50 modelos representativos e organizamos as suas escolhas de design numa estrutura taxonómica unificada, incluindo padronização de dados, arquiteturas de modelo e estratégias de pré-treinamento auto supervisionadas. Em seguida, avaliamos 12 modelos de fundo de código aberto e linhas de base de especialistas competitivas em 13 conjuntos de dados de EEG abrangendo nove paradigmas de BCI. Enfatizando implantações no mundo real, consideramos tanto a generalização entre sujeitos sob um protocolo leave-one-subject-out como a calibração rápida num cenário de poucos exemplos dentro do sujeito. Comparamos ainda o ajuste fino de parâmetros completos (fine-tuning) com a sonda linear (linear probing) para avaliar a capacidade de transferência das representações pré-treinadas e examinamos a relação entre a escala do modelo e o desempenho a jusante. Os nossos resultados indicam que: 1) a sonda linear é frequentemente insuficiente; 2) os modelos especialistas treinados a partir do zero permanecem competitivos em muitas tarefas; e 3) modelos de fundo maiores não necessariamente produzem melhor desempenho de generalização sob os regimes de dados atuais e práticas de treino.
English
Electroencephalography (EEG) foundation models have recently emerged as a promising paradigm for brain-computer interfaces (BCIs), aiming to learn transferable neural representations from large-scale heterogeneous recordings. Despite rapid progresses, there lacks fair and comprehensive comparisons of existing EEG foundation models, due to inconsistent pre-training objectives, preprocessing choices, and downstream evaluation protocols. This paper fills this gap. We first review 50 representative models and organize their design choices into a unified taxonomic framework including data standardization, model architectures, and self-supervised pre-training strategies. We then evaluate 12 open-source foundation models and competitive specialist baselines across 13 EEG datasets spanning nine BCI paradigms. Emphasizing real-world deployments, we consider both cross-subject generalization under a leave-one-subject-out protocol and rapid calibration under a within-subject few-shot setting. We further compare full-parameter fine-tuning with linear probing to assess the transferability of pre-trained representations, and examine the relationship between model scale and downstream performance. Our results indicate that: 1) linear probing is frequently insufficient; 2) specialist models trained from scratch remain competitive across many tasks; and, 3) larger foundation models do not necessarily yield better generalization performance under current data regimes and training practices.