Фундаментальные модели ЭЭГ: достижения, сравнительный анализ и нерешённые проблемы
EEG Foundation Models: Progresses, Benchmarking, and Open Problems
January 25, 2026
Авторы: Dingkun Liu, Yuheng Chen, Zhu Chen, Zhenyao Cui, Yaozhi Wen, Jiayu An, Jingwei Luo, Dongrui Wu
cs.AI
Аннотация
Фундаментальные модели электроэнцефалографии (ЭЭГ) недавно появились как перспективная парадигма для интерфейсов «мозг-компьютер» (ИМК), направленная на изучение переносимых нейронных представлений из крупномасштабных гетерогенных записей. Несмотря на быстрый прогресс, отсутствуют справедливые и всесторонние сравнения существующих фундаментальных моделей ЭЭГ из-за несогласованности целей предварительного обучения, вариантов предобработки данных и протоколов оценки на последующих задачах. Данная работа заполняет этот пробел. Мы сначала рассматриваем 50 репрезентативных моделей и систематизируем их конструктивные решения в единую таксономическую структуру, включая стандартизацию данных, архитектуры моделей и стратегии самообучающегося предварительного обучения. Затем мы оцениваем 12 моделей с открытым исходным кодом и конкурентоспособные специализированные базовые модели на 13 наборах данных ЭЭГ, охватывающих девять парадигм ИМК. С акцентом на практическое развертывание мы рассматриваем как обобщение между субъектами по протоколу «выбывание одного субъекта», так и быструю калибровку в условиях обучения с малым количеством примеров в рамках одного субъекта. Мы дополнительно сравниваем тонкую настройку всех параметров с линейным зондированием, чтобы оценить переносимость предварительно обученных представлений, и исследуем взаимосвязь между масштабом модели и производительностью на последующих задачах. Наши результаты показывают, что: 1) линейное зондирование часто оказывается недостаточным; 2) специализированные модели, обученные с нуля, остаются конкурентоспособными во многих задачах; и 3) более крупные фундаментальные модели не обязательно приводят к лучшей обобщающей способности при текущих объемах данных и практиках обучения.
English
Electroencephalography (EEG) foundation models have recently emerged as a promising paradigm for brain-computer interfaces (BCIs), aiming to learn transferable neural representations from large-scale heterogeneous recordings. Despite rapid progresses, there lacks fair and comprehensive comparisons of existing EEG foundation models, due to inconsistent pre-training objectives, preprocessing choices, and downstream evaluation protocols. This paper fills this gap. We first review 50 representative models and organize their design choices into a unified taxonomic framework including data standardization, model architectures, and self-supervised pre-training strategies. We then evaluate 12 open-source foundation models and competitive specialist baselines across 13 EEG datasets spanning nine BCI paradigms. Emphasizing real-world deployments, we consider both cross-subject generalization under a leave-one-subject-out protocol and rapid calibration under a within-subject few-shot setting. We further compare full-parameter fine-tuning with linear probing to assess the transferability of pre-trained representations, and examine the relationship between model scale and downstream performance. Our results indicate that: 1) linear probing is frequently insufficient; 2) specialist models trained from scratch remain competitive across many tasks; and, 3) larger foundation models do not necessarily yield better generalization performance under current data regimes and training practices.