DreamDiffusion: Het genereren van hoogwaardige afbeeldingen uit hersen-EEG-signalen
DreamDiffusion: Generating High-Quality Images from Brain EEG Signals
June 29, 2023
Auteurs: Yunpeng Bai, Xintao Wang, Yanpei Cao, Yixiao Ge, Chun Yuan, Ying Shan
cs.AI
Samenvatting
Dit artikel introduceert DreamDiffusion, een nieuwe methode voor het genereren van hoogwaardige afbeeldingen rechtstreeks uit hersenelektro-encefalogram (EEG) signalen, zonder de noodzaak om gedachten om te zetten in tekst. DreamDiffusion maakt gebruik van vooraf getrainde tekst-naar-afbeelding modellen en past temporeel gemaskeerde signaalmodellering toe om de EEG-encoder vooraf te trainen voor effectieve en robuuste EEG-representaties. Daarnaast maakt de methode gebruik van de CLIP-afbeeldingencoder om extra supervisie te bieden, waardoor EEG-, tekst- en afbeelding-embeddings beter op elkaar worden afgestemd, zelfs bij een beperkt aantal EEG-afbeelding paren. Over het algemeen overwint de voorgestelde methode de uitdagingen van het gebruik van EEG-signalen voor afbeeldingsgeneratie, zoals ruis, beperkte informatie en individuele verschillen, en behaalt veelbelovende resultaten. Kwantitatieve en kwalitatieve resultaten demonstreren de effectiviteit van de voorgestelde methode als een belangrijke stap in de richting van draagbare en kosteneffectieve "gedachten-naar-afbeelding", met potentiële toepassingen in de neurowetenschappen en computervisie.
English
This paper introduces DreamDiffusion, a novel method for generating
high-quality images directly from brain electroencephalogram (EEG) signals,
without the need to translate thoughts into text. DreamDiffusion leverages
pre-trained text-to-image models and employs temporal masked signal modeling to
pre-train the EEG encoder for effective and robust EEG representations.
Additionally, the method further leverages the CLIP image encoder to provide
extra supervision to better align EEG, text, and image embeddings with limited
EEG-image pairs. Overall, the proposed method overcomes the challenges of using
EEG signals for image generation, such as noise, limited information, and
individual differences, and achieves promising results. Quantitative and
qualitative results demonstrate the effectiveness of the proposed method as a
significant step towards portable and low-cost ``thoughts-to-image'', with
potential applications in neuroscience and computer vision.