ChatPaper.aiChatPaper

Los Modelos de Lenguaje a Gran Escala se Alinean con el Cerebro Humano durante el Pensamiento Creativo

Large Language Models Align with the Human Brain during Creative Thinking

April 3, 2026
Autores: Mete Ismayilzada, Simone A. Luchini, Abdulkadir Gokce, Badr AlKhamissi, Antoine Bosselut, Antonio Laverghetta Jr., Lonneke van der Plas, Roger E. Beaty
cs.AI

Resumen

El pensamiento creativo es un aspecto fundamental de la cognición humana, y el pensamiento divergente —la capacidad de generar ideas novedosas y variadas— es ampliamente considerado su motor generador central. Los modelos de lenguaje grandes (LLMs, por sus siglas en inglés) han demostrado recientemente un rendimiento impresionante en pruebas de pensamiento divergente, y trabajos previos han mostrado que los modelos con mayor rendimiento en tareas tienden a estar más alineados con la actividad cerebral humana. Sin embargo, los estudios existentes sobre la alineación cerebro-LLM se han centrado en tareas pasivas y no creativas. Aquí, exploramos la alineación cerebral durante el pensamiento creativo utilizando datos de resonancia magnética funcional (fMRI) de 170 participantes que realizaban la Tarea de Usos Alternativos (AUT). Extraemos representaciones de LLMs que varían en tamaño (270M-72B) y medimos la alineación con las respuestas cerebrales mediante el Análisis de Similitud Representacional (RSA), centrándonos en las redes de modo por defecto y frontoparietal relacionadas con la creatividad. Encontramos que la alineación cerebro-LLM escala con el tamaño del modelo (solo en la red de modo por defecto) y con la originalidad de las ideas (en ambas redes), siendo los efectos más fuertes al inicio del proceso creativo. Además, mostramos que los objetivos posteriores al entrenamiento moldean la alineación de manera funcionalmente selectiva: un modelo Llama-3.1-8B-Instruct optimizado para creatividad preserva la alineación con respuestas neurales de alta creatividad mientras reduce la alineación con las de baja creatividad; un modelo ajustado para comportamiento humano eleva la alineación con ambas; y una variante entrenada para razonamiento muestra el patrón opuesto, lo que sugiere que el entrenamiento en cadena de pensamiento dirige las representaciones lejos de la geometría neural creativa hacia un procesamiento analítico. Estos resultados demuestran que los objetivos posteriores al entrenamiento reconfiguran selectivamente las representaciones de los LLMs en relación con la geometría neural del pensamiento creativo humano.
English
Creative thinking is a fundamental aspect of human cognition, and divergent thinking-the capacity to generate novel and varied ideas-is widely regarded as its core generative engine. Large language models (LLMs) have recently demonstrated impressive performance on divergent thinking tests and prior work has shown that models with higher task performance tend to be more aligned to human brain activity. However, existing brain-LLM alignment studies have focused on passive, non-creative tasks. Here, we explore brain alignment during creative thinking using fMRI data from 170 participants performing the Alternate Uses Task (AUT). We extract representations from LLMs varying in size (270M-72B) and measure alignment to brain responses via Representational Similarity Analysis (RSA), targeting the creativity-related default mode and frontoparietal networks. We find that brain-LLM alignment scales with model size (default mode network only) and idea originality (both networks), with effects strongest early in the creative process. We further show that post-training objectives shape alignment in functionally selective ways: a creativity-optimized Llama-3.1-8B-Instruct preserves alignment with high-creativity neural responses while reducing alignment with low-creativity ones; a human behavior fine-tuned model elevates alignment with both; and a reasoning-trained variant shows the opposite pattern, suggesting chain-of-thought training steers representations away from creative neural geometry toward analytical processing. These results demonstrate that post-training objectives selectively reshape LLM representations relative to the neural geometry of human creative thought.
PDF12April 14, 2026