ChatPaper.aiChatPaper

Sonda Jerárquica de Etiquetado de Frecuencia (HFTP): Un Enfoque Unificado para Investigar las Representaciones de Estructura Sintáctica en Modelos de Lenguaje a Gran Escala y el Cerebro Humano

Hierarchical Frequency Tagging Probe (HFTP): A Unified Approach to Investigate Syntactic Structure Representations in Large Language Models and the Human Brain

October 15, 2025
Autores: Jingmin An, Yilong Song, Ruolin Yang, Nai Ding, Lingxi Lu, Yuxuan Wang, Wei Wang, Chu Zhuang, Qian Wang, Fang Fang
cs.AI

Resumen

Los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) demuestran habilidades lingüísticas a nivel humano o incluso superiores, modelando eficazmente estructuras sintácticas, aunque los módulos computacionales específicos responsables de ello siguen sin estar claros. Una pregunta clave es si las capacidades conductuales de los LLMs surgen de mecanismos similares a los del cerebro humano. Para abordar estas cuestiones, presentamos la Sonda de Etiquetado de Frecuencia Jerárquica (HFTP, por sus siglas en inglés), una herramienta que utiliza análisis en el dominio de la frecuencia para identificar componentes neuronales de los LLMs (por ejemplo, neuronas individuales de Perceptrones Multicapa (MLP)) y regiones corticales (a través de grabaciones intracraneales) que codifican estructuras sintácticas. Nuestros resultados muestran que modelos como GPT-2, Gemma, Gemma 2, Llama 2, Llama 3.1 y GLM-4 procesan la sintaxis en capas análogas, mientras que el cerebro humano depende de regiones corticales distintas para diferentes niveles sintácticos. El análisis de similitud representacional revela una alineación más fuerte entre las representaciones de los LLMs y el hemisferio izquierdo del cerebro (dominante en el procesamiento del lenguaje). Notablemente, los modelos actualizados exhiben tendencias divergentes: Gemma 2 muestra una mayor similitud con el cerebro que Gemma, mientras que Llama 3.1 muestra menos alineación con el cerebro en comparación con Llama 2. Estos hallazgos ofrecen nuevas perspectivas sobre la interpretabilidad de las mejoras conductuales de los LLMs, planteando preguntas sobre si estos avances están impulsados por mecanismos similares o no a los humanos, y establecen a HFTP como una herramienta valiosa que conecta la lingüística computacional y la neurociencia cognitiva. Este proyecto está disponible en https://github.com/LilTiger/HFTP.
English
Large Language Models (LLMs) demonstrate human-level or even superior language abilities, effectively modeling syntactic structures, yet the specific computational modules responsible remain unclear. A key question is whether LLM behavioral capabilities stem from mechanisms akin to those in the human brain. To address these questions, we introduce the Hierarchical Frequency Tagging Probe (HFTP), a tool that utilizes frequency-domain analysis to identify neuron-wise components of LLMs (e.g., individual Multilayer Perceptron (MLP) neurons) and cortical regions (via intracranial recordings) encoding syntactic structures. Our results show that models such as GPT-2, Gemma, Gemma 2, Llama 2, Llama 3.1, and GLM-4 process syntax in analogous layers, while the human brain relies on distinct cortical regions for different syntactic levels. Representational similarity analysis reveals a stronger alignment between LLM representations and the left hemisphere of the brain (dominant in language processing). Notably, upgraded models exhibit divergent trends: Gemma 2 shows greater brain similarity than Gemma, while Llama 3.1 shows less alignment with the brain compared to Llama 2. These findings offer new insights into the interpretability of LLM behavioral improvements, raising questions about whether these advancements are driven by human-like or non-human-like mechanisms, and establish HFTP as a valuable tool bridging computational linguistics and cognitive neuroscience. This project is available at https://github.com/LilTiger/HFTP.
PDF22February 7, 2026