DreamDiffusion: Generazione di Immagini di Alta Qualità dai Segnali EEG Cerebrali
DreamDiffusion: Generating High-Quality Images from Brain EEG Signals
June 29, 2023
Autori: Yunpeng Bai, Xintao Wang, Yanpei Cao, Yixiao Ge, Chun Yuan, Ying Shan
cs.AI
Abstract
Questo articolo introduce DreamDiffusion, un metodo innovativo per generare immagini di alta qualità direttamente dai segnali elettroencefalografici (EEG) cerebrali, senza la necessità di tradurre i pensieri in testo. DreamDiffusion sfrutta modelli pre-addestrati di testo-immagine e utilizza il temporal masked signal modeling per pre-addestrare l'encoder EEG, ottenendo rappresentazioni EEG efficaci e robuste. Inoltre, il metodo sfrutta ulteriormente l'encoder di immagini CLIP per fornire una supervisione aggiuntiva, allineando meglio gli embedding EEG, testo e immagine anche con un numero limitato di coppie EEG-immagine. Nel complesso, il metodo proposto supera le sfide legate all'uso dei segnali EEG per la generazione di immagini, come il rumore, le informazioni limitate e le differenze individuali, ottenendo risultati promettenti. I risultati quantitativi e qualitativi dimostrano l'efficacia del metodo proposto come un passo significativo verso un sistema portatile e a basso costo di "pensieri-immagine", con potenziali applicazioni nelle neuroscienze e nella visione artificiale.
English
This paper introduces DreamDiffusion, a novel method for generating
high-quality images directly from brain electroencephalogram (EEG) signals,
without the need to translate thoughts into text. DreamDiffusion leverages
pre-trained text-to-image models and employs temporal masked signal modeling to
pre-train the EEG encoder for effective and robust EEG representations.
Additionally, the method further leverages the CLIP image encoder to provide
extra supervision to better align EEG, text, and image embeddings with limited
EEG-image pairs. Overall, the proposed method overcomes the challenges of using
EEG signals for image generation, such as noise, limited information, and
individual differences, and achieves promising results. Quantitative and
qualitative results demonstrate the effectiveness of the proposed method as a
significant step towards portable and low-cost ``thoughts-to-image'', with
potential applications in neuroscience and computer vision.