ChatPaper.aiChatPaper

fMRI-3D: Ein umfassender Datensatz zur Verbesserung der fMRI-basierten 3D-Rekonstruktion.

fMRI-3D: A Comprehensive Dataset for Enhancing fMRI-based 3D Reconstruction

September 17, 2024
Autoren: Jianxiong Gao, Yuqian Fu, Yun Wang, Xuelin Qian, Jianfeng Feng, Yanwei Fu
cs.AI

Zusammenfassung

Die Rekonstruktion von 3D-Visuals aus funktionellen Magnetresonanztomographie (fMRT)-Daten, eingeführt als Recon3DMind in unserer Konferenzarbeit, ist von erheblichem Interesse sowohl für die kognitive Neurowissenschaft als auch für die Computer Vision. Um diese Aufgabe voranzutreiben, präsentieren wir das fMRT-3D-Datenset, das Daten von 15 Teilnehmern umfasst und insgesamt 4768 3D-Objekte zeigt. Das Datenset besteht aus zwei Komponenten: fMRT-Form, zuvor eingeführt und abrufbar unter https://huggingface.co/datasets/Fudan-fMRI/fMRI-Shape, und fMRT-Objaverse, in diesem Paper vorgeschlagen und verfügbar unter https://huggingface.co/datasets/Fudan-fMRI/fMRI-Objaverse. fMRT-Objaverse enthält Daten von 5 Probanden, von denen 4 auch Teil des Kernsets in fMRT-Form sind, wobei jeder Proband 3142 3D-Objekte über 117 Kategorien betrachtet, alle begleitet von Textunterschriften. Dies erhöht signifikant die Vielfalt und potenziellen Anwendungen des Datensets. Darüber hinaus schlagen wir MinD-3D vor, ein neuartiges Framework, das entwickelt wurde, um 3D-Visuelle Informationen aus fMRT-Signalen zu entschlüsseln. Das Framework extrahiert und aggregiert zunächst Merkmale aus fMRT-Daten mithilfe eines Neuro-Fusionsencoders, verwendet dann ein Merkmalsbrücken-Diffusionsmodell, um visuelle Merkmale zu generieren, und rekonstruiert schließlich das 3D-Objekt mithilfe eines generativen Transformer-Decoders. Wir etablieren neue Benchmarks, indem wir Metriken auf semantischer und struktureller Ebene entwerfen, um die Leistung des Modells zu bewerten. Darüber hinaus bewerten wir die Effektivität unseres Modells in einem Out-of-Distribution-Szenario und analysieren die Zuschreibung der extrahierten Merkmale und der visuellen ROIs in fMRT-Signalen. Unsere Experimente zeigen, dass MinD-3D nicht nur 3D-Objekte mit hoher semantischer und räumlicher Genauigkeit rekonstruiert, sondern auch unser Verständnis davon vertieft, wie das menschliche Gehirn 3D-visuelle Informationen verarbeitet. Projektseite unter: https://jianxgao.github.io/MinD-3D.
English
Reconstructing 3D visuals from functional Magnetic Resonance Imaging (fMRI) data, introduced as Recon3DMind in our conference work, is of significant interest to both cognitive neuroscience and computer vision. To advance this task, we present the fMRI-3D dataset, which includes data from 15 participants and showcases a total of 4768 3D objects. The dataset comprises two components: fMRI-Shape, previously introduced and accessible at https://huggingface.co/datasets/Fudan-fMRI/fMRI-Shape, and fMRI-Objaverse, proposed in this paper and available at https://huggingface.co/datasets/Fudan-fMRI/fMRI-Objaverse. fMRI-Objaverse includes data from 5 subjects, 4 of whom are also part of the Core set in fMRI-Shape, with each subject viewing 3142 3D objects across 117 categories, all accompanied by text captions. This significantly enhances the diversity and potential applications of the dataset. Additionally, we propose MinD-3D, a novel framework designed to decode 3D visual information from fMRI signals. The framework first extracts and aggregates features from fMRI data using a neuro-fusion encoder, then employs a feature-bridge diffusion model to generate visual features, and finally reconstructs the 3D object using a generative transformer decoder. We establish new benchmarks by designing metrics at both semantic and structural levels to evaluate model performance. Furthermore, we assess our model's effectiveness in an Out-of-Distribution setting and analyze the attribution of the extracted features and the visual ROIs in fMRI signals. Our experiments demonstrate that MinD-3D not only reconstructs 3D objects with high semantic and spatial accuracy but also deepens our understanding of how human brain processes 3D visual information. Project page at: https://jianxgao.github.io/MinD-3D.

Summary

AI-Generated Summary

PDF21November 16, 2024