EEG Foundation Models: Vooruitgang, Benchmarking en Open Problemen
EEG Foundation Models: Progresses, Benchmarking, and Open Problems
January 25, 2026
Auteurs: Dingkun Liu, Yuheng Chen, Zhu Chen, Zhenyao Cui, Yaozhi Wen, Jiayu An, Jingwei Luo, Dongrui Wu
cs.AI
Samenvatting
Elektro-encefalografie (EEG) foundation-modellen zijn onlangs naar voren gekomen als een veelbelovend paradigma voor brain-computer interfaces (BCI's), met als doel overdraagbare neurale representaties te leren uit grootschalige, heterogene opnames. Ondanks snelle vooruitgang ontbreken eerlijke en uitgebreide vergelijkingen van bestaande EEG-foundationmodellen, vanwege inconsistente vooraf-trainingsdoelstellingen, preprocessingskeuzes en evaluatieprotocollen voor downstream-taken. Dit artikel voorziet in deze leemte. We bespreken eerst 50 representatieve modellen en ordenen hun ontwerpkeuzes in een uniform taxonomisch kader, inclusief datastandaardisatie, modelarchitecturen en zelf-gesuperviseerde vooraf-trainingsstrategieën. Vervolgens evalueren we 12 open-source foundationmodellen en competitieve specialistische baseline-modellen op 13 EEG-datasets die negen BCI-paradigma's omvatten. Met nadruk op praktische toepasbaarheid beschouwen we zowel generalisatie over proefpersonen onder een 'leave-one-subject-out'-protocol als snelle kalibratie in een 'within-subject few-shot'-setting. We vergelijken verder volledige parameterafstemming ('fine-tuning') met lineaire probing om de overdraagbaarheid van vooraf getrainde representaties te beoordelen, en onderzoeken de relatie tussen modelschaal en downstream-prestaties. Onze resultaten geven aan dat: 1) lineaire probing vaak ontoereikend is; 2) specialistische modellen die vanaf nul worden getraind, concurrerend blijven voor veel taken; en 3) grotere foundationmodellen niet noodzakelijkerwijs betere generalisatieprestaties opleveren onder de huidige dataregimes en trainingspraktijken.
English
Electroencephalography (EEG) foundation models have recently emerged as a promising paradigm for brain-computer interfaces (BCIs), aiming to learn transferable neural representations from large-scale heterogeneous recordings. Despite rapid progresses, there lacks fair and comprehensive comparisons of existing EEG foundation models, due to inconsistent pre-training objectives, preprocessing choices, and downstream evaluation protocols. This paper fills this gap. We first review 50 representative models and organize their design choices into a unified taxonomic framework including data standardization, model architectures, and self-supervised pre-training strategies. We then evaluate 12 open-source foundation models and competitive specialist baselines across 13 EEG datasets spanning nine BCI paradigms. Emphasizing real-world deployments, we consider both cross-subject generalization under a leave-one-subject-out protocol and rapid calibration under a within-subject few-shot setting. We further compare full-parameter fine-tuning with linear probing to assess the transferability of pre-trained representations, and examine the relationship between model scale and downstream performance. Our results indicate that: 1) linear probing is frequently insufficient; 2) specialist models trained from scratch remain competitive across many tasks; and, 3) larger foundation models do not necessarily yield better generalization performance under current data regimes and training practices.