Modelos de Linguagem de Grande Escala Alinham-se com o Cérebro Humano durante o Pensamento Criativo
Large Language Models Align with the Human Brain during Creative Thinking
April 3, 2026
Autores: Mete Ismayilzada, Simone A. Luchini, Abdulkadir Gokce, Badr AlKhamissi, Antoine Bosselut, Antonio Laverghetta Jr., Lonneke van der Plas, Roger E. Beaty
cs.AI
Resumo
O pensamento criativo é um aspecto fundamental da cognição humana, e o pensamento divergente - a capacidade de gerar ideias novas e variadas - é amplamente considerado seu motor gerador central. Os grandes modelos de linguagem (LLMs) demonstraram recentemente um desempenho impressionante em testes de pensamento divergente, e trabalhos anteriores mostraram que modelos com maior desempenho em tarefas tendem a estar mais alinhados com a atividade cerebral humana. No entanto, os estudos existentes sobre o alinhamento cérebro-LLM concentraram-se em tarefas passivas e não criativas. Aqui, exploramos o alinhamento cerebral durante o pensamento criativo usando dados de ressonância magnética funcional (fMRI) de 170 participantes que realizaram a Tarefa de Usos Alternativos (AUT). Extraímos representações de LLMs com tamanhos variados (270M-72B) e medimos o alinhamento com as respostas cerebrais por meio da Análise de Similaridade Representacional (RSA), visando as redes de modo padrão e frontoparietal relacionadas à criatividade. Descobrimos que o alinhamento cérebro-LLM escala com o tamanho do modelo (apenas na rede de modo padrão) e com a originalidade da ideia (ambas as redes), com os efeitos mais fortes no início do processo criativo. Mostramos ainda que os objetivos de pós-treinamento moldam o alinhamento de formas funcionalmente seletivas: um modelo Llama-3.1-8B-Instruct otimizado para criatividade preserva o alinhamento com respostas neurais de alta criatividade, enquanto reduz o alinhamento com as de baixa criatividade; um modelo ajustado para comportamento humano eleva o alinhamento com ambos; e uma variante treinada para raciocínio mostra o padrão oposto, sugerindo que o treinamento em cadeia de pensamento (chain-of-thought) direciona as representações para longe da geometria neural criativa e em direção ao processamento analítico. Estes resultados demonstram que os objetivos de pós-treinamento remodelam seletivamente as representações dos LLMs em relação à geometria neural do pensamento criativo humano.
English
Creative thinking is a fundamental aspect of human cognition, and divergent thinking-the capacity to generate novel and varied ideas-is widely regarded as its core generative engine. Large language models (LLMs) have recently demonstrated impressive performance on divergent thinking tests and prior work has shown that models with higher task performance tend to be more aligned to human brain activity. However, existing brain-LLM alignment studies have focused on passive, non-creative tasks. Here, we explore brain alignment during creative thinking using fMRI data from 170 participants performing the Alternate Uses Task (AUT). We extract representations from LLMs varying in size (270M-72B) and measure alignment to brain responses via Representational Similarity Analysis (RSA), targeting the creativity-related default mode and frontoparietal networks. We find that brain-LLM alignment scales with model size (default mode network only) and idea originality (both networks), with effects strongest early in the creative process. We further show that post-training objectives shape alignment in functionally selective ways: a creativity-optimized Llama-3.1-8B-Instruct preserves alignment with high-creativity neural responses while reducing alignment with low-creativity ones; a human behavior fine-tuned model elevates alignment with both; and a reasoning-trained variant shows the opposite pattern, suggesting chain-of-thought training steers representations away from creative neural geometry toward analytical processing. These results demonstrate that post-training objectives selectively reshape LLM representations relative to the neural geometry of human creative thought.