ChatPaper.aiChatPaper

EEG-Foundation-Modelle: Fortschritte, Benchmarking und offene Probleme

EEG Foundation Models: Progresses, Benchmarking, and Open Problems

January 25, 2026
papers.authors: Dingkun Liu, Yuheng Chen, Zhu Chen, Zhenyao Cui, Yaozhi Wen, Jiayu An, Jingwei Luo, Dongrui Wu
cs.AI

papers.abstract

Elektroenzephalographie (EEG)-Foundation-Modelle sind kürzlich als vielversprechendes Paradigma für Brain-Computer-Interfaces (BCIs) aufgetaucht, mit dem Ziel, übertragbare neuronale Repräsentationen aus groß angelegten, heterogenen Aufzeichnungen zu lernen. Trotz rascher Fortschritte mangelt es an fairen und umfassenden Vergleichen bestehender EEG-Foundation-Modelle, bedingt durch inkonsistente Pre-Training-Ziele, Vorverarbeitungsmethoden und Evaluierungsprotokolle für nachgelagerte Aufgaben. Diese Arbeit schließt diese Lücke. Wir überprüfen zunächst 50 repräsentative Modelle und ordnen ihre Designentscheidungen in einen einheitlichen taxonomischen Rahmen ein, der Datenstandardisierung, Modellarchitekturen und selbstüberwachte Pre-Training-Strategien umfasst. Anschließend evaluieren wir 12 quelloffene Foundation-Modelle und wettbewerbsfähige spezialisierte Baseline-Modelle anhand von 13 EEG-Datensätzen, die neun BCI-Paradigmen abdecken. Mit Fokus auf den praktischen Einsatz betrachten wir sowohl die generalisierte Übertragbarkeit über verschiedene Versuchspersonen hinweg gemäß einem Leave-One-Subject-Out-Protokoll als auch die schnelle Kalibrierung im Rahmen einer Few-Shot-Einstellung innerhalb derselben Versuchsperson. Wir vergleichen weiterhin Full-Parameter-Fine-Tuning mit Linear Probing, um die Übertragbarkeit der vortrainierten Repräsentationen zu bewerten, und untersuchen den Zusammenhang zwischen Modellgröße und Leistung in nachgelagerten Aufgaben. Unsere Ergebnisse zeigen, dass: 1) Linear Probing häufig nicht ausreicht; 2) spezialisierte, von Grund auf trainierte Modelle bei vielen Aufgaben wettbewerbsfähig bleiben; und 3) größere Foundation-Modelle unter den derzeitigen Datenregimen und Trainingspraktiken nicht zwangsläufig zu besserer Generalisierungsleistung führen.
English
Electroencephalography (EEG) foundation models have recently emerged as a promising paradigm for brain-computer interfaces (BCIs), aiming to learn transferable neural representations from large-scale heterogeneous recordings. Despite rapid progresses, there lacks fair and comprehensive comparisons of existing EEG foundation models, due to inconsistent pre-training objectives, preprocessing choices, and downstream evaluation protocols. This paper fills this gap. We first review 50 representative models and organize their design choices into a unified taxonomic framework including data standardization, model architectures, and self-supervised pre-training strategies. We then evaluate 12 open-source foundation models and competitive specialist baselines across 13 EEG datasets spanning nine BCI paradigms. Emphasizing real-world deployments, we consider both cross-subject generalization under a leave-one-subject-out protocol and rapid calibration under a within-subject few-shot setting. We further compare full-parameter fine-tuning with linear probing to assess the transferability of pre-trained representations, and examine the relationship between model scale and downstream performance. Our results indicate that: 1) linear probing is frequently insufficient; 2) specialist models trained from scratch remain competitive across many tasks; and, 3) larger foundation models do not necessarily yield better generalization performance under current data regimes and training practices.
PDF132January 31, 2026