ChatPaper.aiChatPaper

Modèles Fondamentaux en EEG : Progrès, Évaluation Comparative et Problèmes Ouverts

EEG Foundation Models: Progresses, Benchmarking, and Open Problems

January 25, 2026
papers.authors: Dingkun Liu, Yuheng Chen, Zhu Chen, Zhenyao Cui, Yaozhi Wen, Jiayu An, Jingwei Luo, Dongrui Wu
cs.AI

papers.abstract

Les modèles de fondation en électroencéphalographie (EEG) sont récemment apparus comme un paradigme prometteur pour les interfaces cerveau-ordinateur (ICOs), visant à apprendre des représentations neurales transférables à partir d'enregistrements hétérogènes à grande échelle. Malgré des progrès rapides, il manque des comparaisons équitables et exhaustives des modèles de fondation EEG existants, en raison d'objectifs de pré-entraînement, de choix de prétraitement et de protocoles d'évaluation en aval incohérents. Cet article comble cette lacune. Nous passons d'abord en revue 50 modèles représentatifs et organisons leurs choix de conception dans un cadre taxonomique unifié incluant la standardisation des données, les architectures de modèles et les stratégies d'auto-supervision pour le pré-entraînement. Nous évaluons ensuite 12 modèles de fondation open-source et des modèles spécialistes de référence sur 13 jeux de données EEG couvrant neuf paradigmes d'ICOs. En mettant l'accent sur les déploiements en conditions réelles, nous considérons à la fois la généralisation inter-sujets selon un protocole "leave-one-subject-out" et l'étalonnage rapide dans un cadre intra-sujet à faible nombre d'exemples. Nous comparons en outre le réglage fin des paramètres avec l'évaluation linéaire pour estimer la transférabilité des représentations pré-entraînées, et examinons la relation entre l'échelle du modèle et les performances en aval. Nos résultats indiquent que : 1) l'évaluation linéaire est souvent insuffisante ; 2) les modèles spécialistes entraînés à partir de zéro restent compétitifs sur de nombreuses tâches ; et 3) les modèles de fondation plus grands ne produisent pas nécessairement de meilleures performances de généralisation avec les régimes de données et pratiques d'entraînement actuels.
English
Electroencephalography (EEG) foundation models have recently emerged as a promising paradigm for brain-computer interfaces (BCIs), aiming to learn transferable neural representations from large-scale heterogeneous recordings. Despite rapid progresses, there lacks fair and comprehensive comparisons of existing EEG foundation models, due to inconsistent pre-training objectives, preprocessing choices, and downstream evaluation protocols. This paper fills this gap. We first review 50 representative models and organize their design choices into a unified taxonomic framework including data standardization, model architectures, and self-supervised pre-training strategies. We then evaluate 12 open-source foundation models and competitive specialist baselines across 13 EEG datasets spanning nine BCI paradigms. Emphasizing real-world deployments, we consider both cross-subject generalization under a leave-one-subject-out protocol and rapid calibration under a within-subject few-shot setting. We further compare full-parameter fine-tuning with linear probing to assess the transferability of pre-trained representations, and examine the relationship between model scale and downstream performance. Our results indicate that: 1) linear probing is frequently insufficient; 2) specialist models trained from scratch remain competitive across many tasks; and, 3) larger foundation models do not necessarily yield better generalization performance under current data regimes and training practices.
PDF132January 31, 2026