대규모 언어 모델, 창의적 사고 과정에서 인간 뇌와 유사한 패턴 보여
Large Language Models Align with the Human Brain during Creative Thinking
April 3, 2026
저자: Mete Ismayilzada, Simone A. Luchini, Abdulkadir Gokce, Badr AlKhamissi, Antoine Bosselut, Antonio Laverghetta Jr., Lonneke van der Plas, Roger E. Beaty
cs.AI
초록
창의적 사고는 인간 인지의 근본적인 측면이며, 새로운 다양한 아이디어를 생성하는 능력인 확산적 사고는 그 핵심 생성 엔진으로 널리 인식되고 있습니다. 대규모 언어 모델(LLM)은 최근 확산적 사고 테스트에서 인상적인 성능을 보여주었으며, 선행 연구에서는 과제 수행 능력이 높은 모델일수록 인간 뇌 활동과 더욱 일치하는 경향이 있음이 밝혀졌습니다. 그러나 기존의 뇌-LLM 정합성 연구는 수동적이고 비창의적인 과제에 집중해 왔습니다. 본 연구에서는 대체 용도 과제(AUT)를 수행하는 170명의 참가자로부터 얻은 기능적 자기공명영상(fMRI) 데이터를 활용하여 창의적 사고 과정 중의 뇌 정합성을 탐구합니다. 다양한 크기(270M-72B)의 LLM에서 표현을 추출하고, 창의성과 관련된 디폴트 모드 네트워크와 전두두정엽 네트워크를 대상으로 표현 유사성 분석(RSA)을 통해 뇌 반응과의 정합성을 측정합니다. 연구 결과, 뇌-LLM 정합성은 모델 크기(디폴트 모드 네트워크만 해당)와 아이디어 독창성(두 네트워크 모두)에 따라 증가하며, 이러한 효과는 창의적 과정 초기에 가장 강력하게 나타났습니다. 더 나아가 사후 훈련 목표가 기능적으로 선택적인 방식으로 정합성을 형성함을 확인했습니다: 창의성 최적화 모델(Llama-3.1-8B-Instruct)은 높은 창의성 신경 반응과의 정합성은 유지하면서 낮은 창의성 반응과의 정합성은 감소시켰고, 인간 행동 미세 조정 모델은 양자와의 정합성을 모두 향상시켰으며, 추론 훈련 변형 모델은 반대 패턴을 보여 사고 사슬(chain-of-thought) 훈련이 표현을 창의적 신경 기하구조에서 분석적 처리 방향으로 이끌고 있음을 시사했습니다. 이러한 결과는 사후 훈련 목표가 인간 창의적 사고의 신경 기하구조와 관련하여 LLM 표현을 선택적으로 재구성함을 입증합니다.
English
Creative thinking is a fundamental aspect of human cognition, and divergent thinking-the capacity to generate novel and varied ideas-is widely regarded as its core generative engine. Large language models (LLMs) have recently demonstrated impressive performance on divergent thinking tests and prior work has shown that models with higher task performance tend to be more aligned to human brain activity. However, existing brain-LLM alignment studies have focused on passive, non-creative tasks. Here, we explore brain alignment during creative thinking using fMRI data from 170 participants performing the Alternate Uses Task (AUT). We extract representations from LLMs varying in size (270M-72B) and measure alignment to brain responses via Representational Similarity Analysis (RSA), targeting the creativity-related default mode and frontoparietal networks. We find that brain-LLM alignment scales with model size (default mode network only) and idea originality (both networks), with effects strongest early in the creative process. We further show that post-training objectives shape alignment in functionally selective ways: a creativity-optimized Llama-3.1-8B-Instruct preserves alignment with high-creativity neural responses while reducing alignment with low-creativity ones; a human behavior fine-tuned model elevates alignment with both; and a reasoning-trained variant shows the opposite pattern, suggesting chain-of-thought training steers representations away from creative neural geometry toward analytical processing. These results demonstrate that post-training objectives selectively reshape LLM representations relative to the neural geometry of human creative thought.