ChatPaper.aiChatPaper

Una Onda Cerebral Codifica Mil Tokens: Modelado de Interacciones Neurales Intercorticales para un Reconocimiento Efectivo de Emociones Basado en EEG

A Brain Wave Encodes a Thousand Tokens: Modeling Inter-Cortical Neural Interactions for Effective EEG-based Emotion Recognition

November 17, 2025
Autores: Nilay Kumar, Priyansh Bhandari, G. Maragatham
cs.AI

Resumen

Las emociones humanas son difíciles de transmitir mediante palabras y a menudo se abstraen en el proceso; sin embargo, las señales de electroencefalograma (EEG) pueden ofrecer una visión más directa de la actividad cerebral emocional. Estudios recientes demuestran que los modelos de aprendizaje profundo pueden procesar estas señales para realizar reconocimiento de emociones con alta precisión. No obstante, muchos enfoques existentes pasan por alto la interacción dinámica entre distintas regiones cerebrales, que puede ser crucial para comprender cómo las emociones se despliegan y evolucionan en el tiempo, lo que potencialmente ayudaría a un reconocimiento emocional más preciso. Para abordar esto, proponemos RBTransformer, una arquitectura de red neuronal basada en Transformer que modela la dinámica neural inter-cortical del cerebro en un espacio latente para capturar mejor las interacciones neurales estructuradas y lograr un reconocimiento efectivo de emociones basado en EEG. Primero, las señales EEG se convierten en tokens de Entropía Diferencial de Banda (BDE), que luego pasan por incrustaciones de Identidad de Electrodo para conservar la procedencia espacial. Estos tokens se procesan a través de bloques sucesivos de atención multi-cabezal inter-cortical que construyen una matriz de atención electrodo x electrodo, permitiendo al modelo aprender las dependencias neurales inter-corticales. Las características resultantes se pasan luego a un cabezal de clasificación para obtener la predicción final. Realizamos experimentos exhaustivos, específicamente en configuraciones dependientes del sujeto, en los conjuntos de datos SEED, DEAP y DREAMER, sobre las tres dimensiones (Valencia, Activación y Dominancia para DEAP y DREAMER), tanto en configuraciones de clasificación binaria como multi-clase. Los resultados demuestran que el RBTransformer propuesto supera a todos los métodos anteriores de vanguardia en los tres conjuntos de datos, en las tres dimensiones y bajo ambas configuraciones de clasificación. El código fuente está disponible en: https://github.com/nnilayy/RBTransformer.
English
Human emotions are difficult to convey through words and are often abstracted in the process; however, electroencephalogram (EEG) signals can offer a more direct lens into emotional brain activity. Recent studies show that deep learning models can process these signals to perform emotion recognition with high accuracy. However, many existing approaches overlook the dynamic interplay between distinct brain regions, which can be crucial to understanding how emotions unfold and evolve over time, potentially aiding in more accurate emotion recognition. To address this, we propose RBTransformer, a Transformer-based neural network architecture that models inter-cortical neural dynamics of the brain in latent space to better capture structured neural interactions for effective EEG-based emotion recognition. First, the EEG signals are converted into Band Differential Entropy (BDE) tokens, which are then passed through Electrode Identity embeddings to retain spatial provenance. These tokens are processed through successive inter-cortical multi-head attention blocks that construct an electrode x electrode attention matrix, allowing the model to learn the inter-cortical neural dependencies. The resulting features are then passed through a classification head to obtain the final prediction. We conducted extensive experiments, specifically under subject-dependent settings, on the SEED, DEAP, and DREAMER datasets, over all three dimensions, Valence, Arousal, and Dominance (for DEAP and DREAMER), under both binary and multi-class classification settings. The results demonstrate that the proposed RBTransformer outperforms all previous state-of-the-art methods across all three datasets, over all three dimensions under both classification settings. The source code is available at: https://github.com/nnilayy/RBTransformer.
PDF32December 1, 2025