ChatPaper.aiChatPaper

Meerstaps Kennisinteractieanalyse via Rank-2 Subruimte-ontvlechting

Multi-Step Knowledge Interaction Analysis via Rank-2 Subspace Disentanglement

November 3, 2025
Auteurs: Sekh Mainul Islam, Pepa Atanasova, Isabelle Augenstein
cs.AI

Samenvatting

Natuurlijke Taalverklaringen (NTV's) beschrijven hoe Grote Taalmodellen (GTM's) beslissingen nemen, door gebruik te maken van zowel externe Contextkennis (CK) als Parametrische Kennis (PK) die is opgeslagen in de modelgewichten. Het begrijpen van hun interactie is cruciaal voor het beoordelen van de onderbouwing van NTV's, maar dit blijft onderbelicht. Eerder onderzoek heeft grotendeels alleen eenstapsgeneratie onderzocht, typisch het eindantwoord, en heeft de PK- en CK-interactie gemodelleerd als slechts een binaire keuze in een rang-1-deelruimte. Dit ziet rijkere interactievormen over het hoofd, zoals complementaire of ondersteunende kennis. Wij stellen een nieuwe rang-2-projectiedeelruimte voor die de bijdragen van PK en CK nauwkeuriger ontwart en gebruiken deze voor de eerste multi-step analyse van kennisinteracties in langere NTV-reeksen. Experimenten op vier V&A-datasets en drie open-gewicht instruction-tuned GTM's tonen aan dat diverse kennisinteracties slecht worden gerepresenteerd in een rang-1-deelruimte, maar effectief worden vastgelegd in onze rang-2-formulering. Onze multi-step analyse onthult dat gehallucineerde NTV's sterk uitlijnen met de PK-richting, context-getrouwe NTV's PK en CK in balans houden, en Chain-of-Thought-prompting voor NTV's gegenereerde NTV's naar CK verschuift door de PK-afhankelijkheid te verminderen. Dit werk biedt het eerste raamwerk voor systematische studies van multi-step kennisinteracties in GTM's door een rijkere rang-2-deelruimte-ontwarring. Code en data: https://github.com/copenlu/pk-ck-knowledge-disentanglement.
English
Natural Language Explanations (NLEs) describe how Large Language Models (LLMs) make decisions, drawing on both external Context Knowledge (CK) and Parametric Knowledge (PK) stored in model weights. Understanding their interaction is key to assessing the grounding of NLEs, yet it remains underexplored. Prior work has largely examined only single-step generation, typically the final answer, and has modelled PK and CK interaction only as a binary choice in a rank-1 subspace. This overlooks richer forms of interaction, such as complementary or supportive knowledge. We propose a novel rank-2 projection subspace that disentangles PK and CK contributions more accurately and use it for the first multi-step analysis of knowledge interactions across longer NLE sequences. Experiments on four QA datasets and three open-weight instruction-tuned LLMs show that diverse knowledge interactions are poorly represented in a rank-1 subspace but are effectively captured in our rank-2 formulation. Our multi-step analysis reveals that hallucinated NLEs align strongly with the PK direction, context-faithful ones balance PK and CK, and Chain-of-Thought prompting for NLEs shifts generated NLEs toward CK by reducing PK reliance. This work provides the first framework for systematic studies of multi-step knowledge interactions in LLMs through a richer rank-2 subspace disentanglement. Code and data: https://github.com/copenlu/pk-ck-knowledge-disentanglement.
PDF21December 2, 2025