ChatPaper.aiChatPaper

REMA: Een Uniform Kader voor Redeneermanifolden ter Interpretatie van Grote Taalmodellen

REMA: A Unified Reasoning Manifold Framework for Interpreting Large Language Model

September 26, 2025
Auteurs: Bo Li, Guanzhi Deng, Ronghao Chen, Junrong Yue, Shuo Zhang, Qinghua Zhao, Linqi Song, Lijie Wen
cs.AI

Samenvatting

Het begrijpen van hoe Large Language Models (LLMs) complexe redeneringen uitvoeren en hun faalmechanismen is een uitdaging in interpretatieonderzoek. Om een meetbaar geometrisch analyseperspectief te bieden, definiëren we het concept van het Redeneermanifold, een latente laagdimensionale geometrische structuur gevormd door de interne representaties die corresponderen met alle correct geredeneerde generaties. Deze structuur kan worden gezien als de belichaming van de effectieve denkpaden die het model heeft geleerd om een bepaalde taak succesvol op te lossen. Op basis van dit concept bouwen we REMA, een raamwerk dat de oorsprong van fouten verklaart door de ruimtelijke relaties van interne modelrepresentaties die corresponderen met zowel foutieve als correcte redeneervoorbeelden kwantitatief te vergelijken. Specifiek kwantificeert REMA eerst de geometrische afwijking van elke foutieve representatie door de k-nearest neighbors afstand te berekenen tot het benaderde manifold gevormd door correcte representaties, waardoor een uniform faalsignaal wordt geboden. Vervolgens lokaliseert het de divergentiepunten waar deze afwijkingen voor het eerst significant worden door deze afwijkingsmetriek te volgen over de lagen van het model en deze te vergelijken met een basislijn van interne fluctuaties van correcte representaties, waardoor wordt geïdentificeerd waar de redeneerketen begint af te wijken. Onze uitgebreide experimenten op diverse taal- en multimodale modellen en taken demonstreren de laagdimensionale aard van het redeneermanifold en de hoge scheidbaarheid tussen foutieve en correcte redeneerrepresentaties. De resultaten valideren ook de effectiviteit van het REMA-raamwerk bij het analyseren van de oorsprong van redeneerfouten. Dit onderzoek verbindt abstracte redeneerfouten met meetbare geometrische afwijkingen in representaties, wat nieuwe mogelijkheden biedt voor een diepgaand begrip en diagnose van de interne rekenprocessen van black-box modellen.
English
Understanding how Large Language Models (LLMs) perform complex reasoning and their failure mechanisms is a challenge in interpretability research. To provide a measurable geometric analysis perspective, we define the concept of the Reasoning Manifold, a latent low-dimensional geometric structure formed by the internal representations corresponding to all correctly reasoned generations. This structure can be conceptualized as the embodiment of the effective thinking paths that the model has learned to successfully solve a given task. Based on this concept, we build REMA, a framework that explains the origins of failures by quantitatively comparing the spatial relationships of internal model representations corresponding to both erroneous and correct reasoning samples. Specifically, REMA first quantifies the geometric deviation of each erroneous representation by calculating its k-nearest neighbors distance to the approximated manifold formed by correct representations, thereby providing a unified failure signal. It then localizes the divergence points where these deviations first become significant by tracking this deviation metric across the model's layers and comparing it against a baseline of internal fluctuations from correct representations, thus identifying where the reasoning chain begins to go off-track. Our extensive experiments on diverse language and multimodal models and tasks demonstrate the low-dimensional nature of the reasoning manifold and the high separability between erroneous and correct reasoning representations. The results also validate the effectiveness of the REMA framework in analyzing the origins of reasoning failures. This research connects abstract reasoning failures to measurable geometric deviations in representations, providing new avenues for in-depth understanding and diagnosis of the internal computational processes of black-box models.
PDF22September 30, 2025