ChatPaper.aiChatPaper

CineBrain : Un vaste ensemble de données cérébrales multimodales lors du traitement narratif audiovisuel naturaliste

CineBrain: A Large-Scale Multi-Modal Brain Dataset During Naturalistic Audiovisual Narrative Processing

March 10, 2025
Auteurs: Jianxiong Gao, Yichang Liu, Baofeng Yang, Jianfeng Feng, Yanwei Fu
cs.AI

Résumé

Dans cet article, nous présentons CineBrain, le premier jeu de données à grande échelle comprenant des enregistrements simultanés d'EEG et d'IRMf lors d'une stimulation audiovisuelle dynamique. Conscient des forces complémentaires de la haute résolution temporelle de l'EEG et de la couverture spatiale profonde de l'IRMf, CineBrain propose environ six heures de contenu narratif tiré de la série télévisée populaire The Big Bang Theory pour chacun des six participants. S'appuyant sur ce jeu de données unique, nous proposons CineSync, un cadre innovant de décodage multimodal qui intègre un Encodeur de Fusion Multi-Modale avec un Décodeur de Latence Neuronale basé sur la diffusion. Notre approche fusionne efficacement les signaux EEG et IRMf, améliorant significativement la qualité de reconstruction des stimuli audiovisuels complexes. Pour faciliter une évaluation rigoureuse, nous introduisons Cine-Benchmark, un protocole d'évaluation complet qui évalue les reconstructions à travers les dimensions sémantiques et perceptuelles. Les résultats expérimentaux démontrent que CineSync atteint des performances de reconstruction vidéo de pointe et mettent en lumière notre succès initial dans la combinaison de l'IRMf et de l'EEG pour reconstruire à la fois les stimuli vidéo et audio. Page du projet : https://jianxgao.github.io/CineBrain.
English
In this paper, we introduce CineBrain, the first large-scale dataset featuring simultaneous EEG and fMRI recordings during dynamic audiovisual stimulation. Recognizing the complementary strengths of EEG's high temporal resolution and fMRI's deep-brain spatial coverage, CineBrain provides approximately six hours of narrative-driven content from the popular television series The Big Bang Theory for each of six participants. Building upon this unique dataset, we propose CineSync, an innovative multimodal decoding framework integrates a Multi-Modal Fusion Encoder with a diffusion-based Neural Latent Decoder. Our approach effectively fuses EEG and fMRI signals, significantly improving the reconstruction quality of complex audiovisual stimuli. To facilitate rigorous evaluation, we introduce Cine-Benchmark, a comprehensive evaluation protocol that assesses reconstructions across semantic and perceptual dimensions. Experimental results demonstrate that CineSync achieves state-of-the-art video reconstruction performance and highlight our initial success in combining fMRI and EEG for reconstructing both video and audio stimuli. Project Page: https://jianxgao.github.io/CineBrain.

Summary

AI-Generated Summary

PDF112March 12, 2025