DreamDiffusion: Gerando Imagens de Alta Qualidade a partir de Sinais EEG do Cérebro
DreamDiffusion: Generating High-Quality Images from Brain EEG Signals
June 29, 2023
Autores: Yunpeng Bai, Xintao Wang, Yanpei Cao, Yixiao Ge, Chun Yuan, Ying Shan
cs.AI
Resumo
Este artigo apresenta o DreamDiffusion, um método inovador para gerar imagens de alta qualidade diretamente a partir de sinais de eletroencefalograma (EEG), sem a necessidade de traduzir pensamentos em texto. O DreamDiffusion aproveita modelos pré-treinados de texto para imagem e emprega modelagem temporal de sinais mascarados para pré-treinar o codificador de EEG, visando representações de EEG eficazes e robustas. Além disso, o método utiliza o codificador de imagens CLIP para fornecer supervisão adicional, melhorando o alinhamento entre embeddings de EEG, texto e imagem, mesmo com um número limitado de pares EEG-imagem. No geral, o método proposto supera os desafios associados ao uso de sinais de EEG para geração de imagens, como ruído, informação limitada e diferenças individuais, alcançando resultados promissores. Resultados quantitativos e qualitativos demonstram a eficácia do método como um passo significativo em direção a um sistema portátil e de baixo custo para "pensamentos-para-imagem", com potenciais aplicações em neurociência e visão computacional.
English
This paper introduces DreamDiffusion, a novel method for generating
high-quality images directly from brain electroencephalogram (EEG) signals,
without the need to translate thoughts into text. DreamDiffusion leverages
pre-trained text-to-image models and employs temporal masked signal modeling to
pre-train the EEG encoder for effective and robust EEG representations.
Additionally, the method further leverages the CLIP image encoder to provide
extra supervision to better align EEG, text, and image embeddings with limited
EEG-image pairs. Overall, the proposed method overcomes the challenges of using
EEG signals for image generation, such as noise, limited information, and
individual differences, and achieves promising results. Quantitative and
qualitative results demonstrate the effectiveness of the proposed method as a
significant step towards portable and low-cost ``thoughts-to-image'', with
potential applications in neuroscience and computer vision.