ChatPaper.aiChatPaper

EEG 파운데이션 모델: 진전, 벤치마킹, 그리고 미해결 과제들

EEG Foundation Models: Progresses, Benchmarking, and Open Problems

January 25, 2026
저자: Dingkun Liu, Yuheng Chen, Zhu Chen, Zhenyao Cui, Yaozhi Wen, Jiayu An, Jingwei Luo, Dongrui Wu
cs.AI

초록

뇌전도(EEG) 기반 모델은 대규모 이기록 데이터로부터 전이 가능한 신경 표현을 학습하려는 목적으로 뇌-컴퓨터 인터페이스(BCI) 분야에서 최근 주목받는 패러다임으로 부상했습니다. 급속한 발전에도 불구하고, 사전 훈련 목표, 전처리 방법, 하류 작업 평가 프로토콜의 불일치로 인해 기존 EEG 기반 모델에 대한 공정하고 포괄적인 비교 연구가 부족한 실정입니다. 본 논문은 이러한 격차를 메꾸고자 합니다. 먼저 50개의 대표 모델을 검토하여 데이터 표준화, 모델 구조, 자기 지도 사전 훈련 전략 등 설계 선택 사항을 통합 분류 체계로 정리합니다. 이후 12개의 오픈소스 기반 모델과 경쟁력 있는 전문 모델 베이스라인을 9가지 BCI 패러다임에 걸친 13개 EEG 데이터셋에서 평가합니다. 실제 적용 환경을 고려하여 대상자 한 명을 제외한 교차 검증 프로토콜 하의 교차 대상자 일반화 성능과 대상자 내 소수 샘플 설정 하의 신속 적응 성능을 모두 검토합니다. 더 나아가 전역 매개변수 미세 조정과 선형 탐사법을 비교하여 사전 훈련된 표현의 전이 가능성을 평가하고, 모델 규모와 하류 작업 성능 간의 상관관계를 분석합니다. 실험 결과에 따르면: 1) 선형 탐사법만으로는 종종 불충분하며, 2) 처음부터 훈련된 전문 모델이 다양한 과제에서 여전히 경쟁력을 보이며, 3) 현재 데이터 규모와 훈련 방식 하에서는 더 큰 기반 모델이 반드시 더 나은 일반화 성능을 보장하지 않습니다.
English
Electroencephalography (EEG) foundation models have recently emerged as a promising paradigm for brain-computer interfaces (BCIs), aiming to learn transferable neural representations from large-scale heterogeneous recordings. Despite rapid progresses, there lacks fair and comprehensive comparisons of existing EEG foundation models, due to inconsistent pre-training objectives, preprocessing choices, and downstream evaluation protocols. This paper fills this gap. We first review 50 representative models and organize their design choices into a unified taxonomic framework including data standardization, model architectures, and self-supervised pre-training strategies. We then evaluate 12 open-source foundation models and competitive specialist baselines across 13 EEG datasets spanning nine BCI paradigms. Emphasizing real-world deployments, we consider both cross-subject generalization under a leave-one-subject-out protocol and rapid calibration under a within-subject few-shot setting. We further compare full-parameter fine-tuning with linear probing to assess the transferability of pre-trained representations, and examine the relationship between model scale and downstream performance. Our results indicate that: 1) linear probing is frequently insufficient; 2) specialist models trained from scratch remain competitive across many tasks; and, 3) larger foundation models do not necessarily yield better generalization performance under current data regimes and training practices.
PDF132January 31, 2026