大規模言語モデルは創造的思考中に人間の脳と同調する
Large Language Models Align with the Human Brain during Creative Thinking
April 3, 2026
著者: Mete Ismayilzada, Simone A. Luchini, Abdulkadir Gokce, Badr AlKhamissi, Antoine Bosselut, Antonio Laverghetta Jr., Lonneke van der Plas, Roger E. Beaty
cs.AI
要旨
創造的思考は人間の認知の基本的側面であり、新奇で多様なアイデアを生成する能力である拡散的思考は、その中核的な生成エンジンと広く見なされている。大規模言語モデル(LLM)は近年、拡散的思考テストにおいて印象的な性能を示しており、課題成績が高いモデルほどヒトの脳活動との整合性が高くなる傾向があることが先行研究で示されている。しかし、既存の脳-LLM整合性研究は受動的で非創造的な課題に焦点を当ててきた。本研究では、代替用途課題(AUT)を行う170名の参加者からのfMRIデータを用いて、創造的思考中の脳整合性を探る。様々なサイズ(270M-72B)のLLMから表現を抽出し、表現類似性分析(RSA)を通じて脳反応との整合性を測定し、創造性に関連するデフォルトモードネットワークと前頭頭頂ネットワークを対象とした。その結果、脳-LLM整合性はモデルサイズ(デフォルトモードネットワークのみ)とアイデアの独創性(両ネットワーク)に応じてスケールし、その効果は創造的プロセスの初期段階で最も強いことがわかった。さらに、学習後の目的が機能的に選択的な方法で整合性を形成することを示す:創造性最適化されたLlama-3.1-8B-Instructは、高創造性の神経反応との整合性を維持しつつ低創造性との整合性を低減する;ヒトの行動にファインチューニングされたモデルは両方との整合性を高める;そして推論学習された変種は逆のパターンを示し、連鎖思考トレーニングが表現を創造的な神経幾何から分析的処理へ向けさせることを示唆する。これらの結果は、学習後の目的が、人間の創造的思考の神経幾何に対してLLM表現を選択的に再形成することを実証している。
English
Creative thinking is a fundamental aspect of human cognition, and divergent thinking-the capacity to generate novel and varied ideas-is widely regarded as its core generative engine. Large language models (LLMs) have recently demonstrated impressive performance on divergent thinking tests and prior work has shown that models with higher task performance tend to be more aligned to human brain activity. However, existing brain-LLM alignment studies have focused on passive, non-creative tasks. Here, we explore brain alignment during creative thinking using fMRI data from 170 participants performing the Alternate Uses Task (AUT). We extract representations from LLMs varying in size (270M-72B) and measure alignment to brain responses via Representational Similarity Analysis (RSA), targeting the creativity-related default mode and frontoparietal networks. We find that brain-LLM alignment scales with model size (default mode network only) and idea originality (both networks), with effects strongest early in the creative process. We further show that post-training objectives shape alignment in functionally selective ways: a creativity-optimized Llama-3.1-8B-Instruct preserves alignment with high-creativity neural responses while reducing alignment with low-creativity ones; a human behavior fine-tuned model elevates alignment with both; and a reasoning-trained variant shows the opposite pattern, suggesting chain-of-thought training steers representations away from creative neural geometry toward analytical processing. These results demonstrate that post-training objectives selectively reshape LLM representations relative to the neural geometry of human creative thought.