ChatPaper.aiChatPaper

Modelli Fondamentali per EEG: Progressi, Benchmark e Problemi Aperti

EEG Foundation Models: Progresses, Benchmarking, and Open Problems

January 25, 2026
Autori: Dingkun Liu, Yuheng Chen, Zhu Chen, Zhenyao Cui, Yaozhi Wen, Jiayu An, Jingwei Luo, Dongrui Wu
cs.AI

Abstract

I modelli fondazionali per l'elettroencefalografia (EEG) sono recentemente emersi come un paradigma promettente per le interfacce cervello-computer (BCI), con l'obiettivo di apprendere rappresentazioni neurali trasferibili da registrazioni eterogenee su larga scala. Nonostante i rapidi progressi, mancano confronti equi e completi tra i modelli fondazionali EEG esistenti, a causa di obiettivi di pre-addestramento, scelte di pre-elaborazione e protocolli di valutazione downstream incoerenti. Questo articolo colma tale lacuna. In primo luogo, esaminiamo 50 modelli rappresentativi e organizziamo le loro scelte progettuali in un quadro tassonomico unificato che include standardizzazione dei dati, architetture dei modelli e strategie di pre-addestramento auto-supervisionato. Successivamente, valutiamo 12 modelli fondazionali open-source e baseline specialistici competitivi su 13 dataset EEG che coprono nove paradigmi di BCI. Enfatizzando le implementazioni nel mondo reale, consideriamo sia la generalizzazione cross-soggetto con un protocollo leave-one-subject-out, sia la calibrazione rapida in un'impostazione few-shot within-subject. Confrontiamo inoltre il fine-tuning completo dei parametri con il linear probing per valutare la trasferibilità delle rappresentazioni pre-addestrate ed esaminiamo la relazione tra scala del modello e prestazioni downstream. I nostri risultati indicano che: 1) il linear probing è spesso insufficiente; 2) i modelli specialistici addestrati da zero rimangono competitivi in molti compiti; e 3) modelli fondazionali più grandi non necessariamente producono migliori prestazioni di generalizzazione negli attuali regimi di dati e pratiche di addestramento.
English
Electroencephalography (EEG) foundation models have recently emerged as a promising paradigm for brain-computer interfaces (BCIs), aiming to learn transferable neural representations from large-scale heterogeneous recordings. Despite rapid progresses, there lacks fair and comprehensive comparisons of existing EEG foundation models, due to inconsistent pre-training objectives, preprocessing choices, and downstream evaluation protocols. This paper fills this gap. We first review 50 representative models and organize their design choices into a unified taxonomic framework including data standardization, model architectures, and self-supervised pre-training strategies. We then evaluate 12 open-source foundation models and competitive specialist baselines across 13 EEG datasets spanning nine BCI paradigms. Emphasizing real-world deployments, we consider both cross-subject generalization under a leave-one-subject-out protocol and rapid calibration under a within-subject few-shot setting. We further compare full-parameter fine-tuning with linear probing to assess the transferability of pre-trained representations, and examine the relationship between model scale and downstream performance. Our results indicate that: 1) linear probing is frequently insufficient; 2) specialist models trained from scratch remain competitive across many tasks; and, 3) larger foundation models do not necessarily yield better generalization performance under current data regimes and training practices.
PDF204February 16, 2026