Große Sprachmodelle stimmen mit dem menschlichen Gehirn beim kreativen Denken überein
Large Language Models Align with the Human Brain during Creative Thinking
April 3, 2026
Autoren: Mete Ismayilzada, Simone A. Luchini, Abdulkadir Gokce, Badr AlKhamissi, Antoine Bosselut, Antonio Laverghetta Jr., Lonneke van der Plas, Roger E. Beaty
cs.AI
Zusammenfassung
Kreatives Denken ist ein grundlegender Aspekt der menschlichen Kognition, und divergentes Denken – die Fähigkeit, neuartige und vielfältige Ideen zu generieren – wird weithin als dessen zentrale generative Triebkraft angesehen. Große Sprachmodelle (LLMs) haben kürzlich beeindruckende Leistungen bei Tests zum divergenten Denken gezeigt, und frühere Arbeiten haben belegt, dass Modelle mit höherer Aufgabenleistung tendenziell stärker mit der menschlichen Gehirnaktivität übereinstimmen. Bisher konzentrierten sich Studien zur Gehirn-LLM-Übereinstimmung jedoch auf passive, nicht-kreative Aufgaben. In dieser Arbeit untersuchen wir die Gehirn-Übereinstimmung während des kreativen Denkens unter Verwendung von fMRT-Daten von 170 Teilnehmern, die den Alternate Uses Task (AUT) durchführten. Wir extrahieren Repräsentationen aus LLMs unterschiedlicher Größe (270M-72B) und messen die Übereinstimmung mit den Gehirnreaktionen mittels Representational Similarity Analysis (RSA), wobei wir uns auf die kreativitätsbezogenen Netzwerke – das Default-Mode-Netzwerk und das frontoparietale Netzwerk – konzentrieren. Wir stellen fest, dass die Gehirn-LLM-Übereinstimmung mit der Modellgröße (nur Default-Mode-Netzwerk) und der Ideenoriginalität (beide Netzwerke) skaliert, wobei die Effekte zu Beginn des kreativen Prozesses am stärksten sind. Wir zeigen weiterhin, dass Nachtrainingsziele die Übereinstimmung auf funktional selektive Weise prägen: Ein auf Kreativität optimiertes Llama-3.1-8B-Instruct bewahrt die Übereinstimmung mit hochkreativen neuronalen Reaktionen, während es die Übereinstimmung mit niedrigkreativen verringert; ein auf menschliches Verhalten feinabgestimmtes Modell erhöht die Übereinstimmung mit beiden; und eine auf logisches Denken trainierte Variante zeigt das entgegengesetzte Muster, was darauf hindeutet, dass Chain-of-Thought-Training die Repräsentationen von der neuronalen Geometrie kreativen Denkens weg und hin zu analytischer Verarbeitung lenkt. Diese Ergebnisse demonstrieren, dass Nachtrainingsziele die LLM-Repräsentationen im Verhältnis zur neuronalen Geometrie des menschlichen kreativen Denkens selektiv neu formen.
English
Creative thinking is a fundamental aspect of human cognition, and divergent thinking-the capacity to generate novel and varied ideas-is widely regarded as its core generative engine. Large language models (LLMs) have recently demonstrated impressive performance on divergent thinking tests and prior work has shown that models with higher task performance tend to be more aligned to human brain activity. However, existing brain-LLM alignment studies have focused on passive, non-creative tasks. Here, we explore brain alignment during creative thinking using fMRI data from 170 participants performing the Alternate Uses Task (AUT). We extract representations from LLMs varying in size (270M-72B) and measure alignment to brain responses via Representational Similarity Analysis (RSA), targeting the creativity-related default mode and frontoparietal networks. We find that brain-LLM alignment scales with model size (default mode network only) and idea originality (both networks), with effects strongest early in the creative process. We further show that post-training objectives shape alignment in functionally selective ways: a creativity-optimized Llama-3.1-8B-Instruct preserves alignment with high-creativity neural responses while reducing alignment with low-creativity ones; a human behavior fine-tuned model elevates alignment with both; and a reasoning-trained variant shows the opposite pattern, suggesting chain-of-thought training steers representations away from creative neural geometry toward analytical processing. These results demonstrate that post-training objectives selectively reshape LLM representations relative to the neural geometry of human creative thought.