Grote Taalmodellen komen overeen met het menselijk brein tijdens creatief denken
Large Language Models Align with the Human Brain during Creative Thinking
April 3, 2026
Auteurs: Mete Ismayilzada, Simone A. Luchini, Abdulkadir Gokce, Badr AlKhamissi, Antoine Bosselut, Antonio Laverghetta Jr., Lonneke van der Plas, Roger E. Beaty
cs.AI
Samenvatting
Creatief denken is een fundamenteel aspect van de menselijke cognitie, en divergent denken – het vermogen om nieuwe en gevarieerde ideeën te genereren – wordt algemeen beschouwd als de kernmotor ervan. Grote taalmodel(len (LLM's) hebben onlangs indrukwekkende prestaties getoond op tests voor divergent denken, en eerder onderzoek heeft aangetoond dat modellen met een hogere taakprestatie doorgaans meer overeenkomen met menselijke hersenactiviteit. Bestaande studies naar de afstemming tussen hersenen en LLM's hebben zich echter gericht op passieve, niet-creatieve taken. Hier onderzoeken we de hersenafstemming tijdens creatief denken met behulp van fMRI-gegevens van 170 deelnemers die de Alternate Uses Task (AUT) uitvoerden. We extraheren representaties uit LLM's van uiteenlopende grootte (270M-72B) en meten de afstemming met hersenreacties via Representational Similarity Analysis (RSA), gericht op de creativiteitsgerelateerde default mode- en frontopariëtale netwerken. We ontdekken dat de hersen-LLM-afstemming toeneemt met de modelgrootte (alleen in het default mode-netwerk) en de originaliteit van ideeën (beide netwerken), waarbij de effecten het sterkst zijn vroeg in het creatieve proces. We tonen verder aan dat doelen na de training de afstemming op functioneel selectieve manieren vormgeven: een creativiteit-geoptimaliseerd Llama-3.1-8B-Instruct-model behoudt afstemming met neurale reacties bij hoge creativiteit terwijl het de afstemming met reacties bij lage creativiteit vermindert; een model afgestemd op menselijk gedrag verhoogt de afstemming met beide; en een op redeneren getrainde variant toont het tegenovergestelde patroon, wat suggereert dat chain-of-thought-training representaties wegstuurt van creatieve neurale geometrie naar analytische verwerking. Deze resultaten tonen aan dat doelen na de training de LLM-representaties selectief hervormen ten opzichte van de neurale geometrie van het menselijke creatieve denken.
English
Creative thinking is a fundamental aspect of human cognition, and divergent thinking-the capacity to generate novel and varied ideas-is widely regarded as its core generative engine. Large language models (LLMs) have recently demonstrated impressive performance on divergent thinking tests and prior work has shown that models with higher task performance tend to be more aligned to human brain activity. However, existing brain-LLM alignment studies have focused on passive, non-creative tasks. Here, we explore brain alignment during creative thinking using fMRI data from 170 participants performing the Alternate Uses Task (AUT). We extract representations from LLMs varying in size (270M-72B) and measure alignment to brain responses via Representational Similarity Analysis (RSA), targeting the creativity-related default mode and frontoparietal networks. We find that brain-LLM alignment scales with model size (default mode network only) and idea originality (both networks), with effects strongest early in the creative process. We further show that post-training objectives shape alignment in functionally selective ways: a creativity-optimized Llama-3.1-8B-Instruct preserves alignment with high-creativity neural responses while reducing alignment with low-creativity ones; a human behavior fine-tuned model elevates alignment with both; and a reasoning-trained variant shows the opposite pattern, suggesting chain-of-thought training steers representations away from creative neural geometry toward analytical processing. These results demonstrate that post-training objectives selectively reshape LLM representations relative to the neural geometry of human creative thought.