ChatPaper.aiChatPaper

Modelos Fundacionales de EEG: Avances, Evaluación Comparativa y Problemas Abiertos

EEG Foundation Models: Progresses, Benchmarking, and Open Problems

January 25, 2026
Autores: Dingkun Liu, Yuheng Chen, Zhu Chen, Zhenyao Cui, Yaozhi Wen, Jiayu An, Jingwei Luo, Dongrui Wu
cs.AI

Resumen

Los modelos fundacionales de electroencefalografía (EEG) han surgido recientemente como un paradigma prometedor para las interfaces cerebro-computadora (BCI), con el objetivo de aprender representaciones neurales transferibles a partir de grabaciones heterogéneas a gran escala. A pesar de los rápidos avances, faltan comparaciones justas y exhaustivas de los modelos fundacionales de EEG existentes, debido a objetivos de preentrenamiento inconsistentes, elecciones de preprocesamiento y protocolos de evaluación posteriores. Este artículo llena ese vacío. Primero, revisamos 50 modelos representativos y organizamos sus opciones de diseño en un marco taxonómico unificado que incluye estandarización de datos, arquitecturas de modelos y estrategias de preentrenamiento auto-supervisado. Luego, evaluamos 12 modelos fundacionales de código abierto y líneas de base especializadas competitivas en 13 conjuntos de datos de EEG que abarcan nueve paradigmas de BCI. Haciendo hincapié en los despliegues del mundo real, consideramos tanto la generalización cruzada entre sujetos bajo un protocolo de dejar-uno-fuera como la calibración rápida en un entorno de pocos ejemplos dentro del sujeto. Además, comparamos el ajuste fino de parámetros completos con el sondeo lineal para evaluar la transferibilidad de las representaciones preentrenadas y examinamos la relación entre la escala del modelo y el rendimiento posterior. Nuestros resultados indican que: 1) el sondeo lineal frecuentemente es insuficiente; 2) los modelos especialistas entrenados desde cero siguen siendo competitivos en muchas tareas; y 3) los modelos fundacionales más grandes no necesariamente producen un mejor rendimiento de generalización bajo los regímenes de datos y las prácticas de entrenamiento actuales.
English
Electroencephalography (EEG) foundation models have recently emerged as a promising paradigm for brain-computer interfaces (BCIs), aiming to learn transferable neural representations from large-scale heterogeneous recordings. Despite rapid progresses, there lacks fair and comprehensive comparisons of existing EEG foundation models, due to inconsistent pre-training objectives, preprocessing choices, and downstream evaluation protocols. This paper fills this gap. We first review 50 representative models and organize their design choices into a unified taxonomic framework including data standardization, model architectures, and self-supervised pre-training strategies. We then evaluate 12 open-source foundation models and competitive specialist baselines across 13 EEG datasets spanning nine BCI paradigms. Emphasizing real-world deployments, we consider both cross-subject generalization under a leave-one-subject-out protocol and rapid calibration under a within-subject few-shot setting. We further compare full-parameter fine-tuning with linear probing to assess the transferability of pre-trained representations, and examine the relationship between model scale and downstream performance. Our results indicate that: 1) linear probing is frequently insufficient; 2) specialist models trained from scratch remain competitive across many tasks; and, 3) larger foundation models do not necessarily yield better generalization performance under current data regimes and training practices.
PDF132January 31, 2026