ChatPaper.aiChatPaper

Patchscope: Een Unificerend Framework voor het Inspecteren van Verborgen Representaties in Taalmodellen

Patchscope: A Unifying Framework for Inspecting Hidden Representations of Language Models

January 11, 2024
Auteurs: Asma Ghandeharioun, Avi Caciularu, Adam Pearce, Lucas Dixon, Mor Geva
cs.AI

Samenvatting

Het inspecteren van de informatie die is gecodeerd in de verborgen representaties van grote taalmmodellen (LLM's) kan het gedrag van modellen verklaren en hun afstemming met menselijke waarden verifiëren. Gezien de mogelijkheden van LLM's om voor mensen begrijpelijke tekst te genereren, stellen we voor om het model zelf te gebruiken om zijn interne representaties in natuurlijke taal uit te leggen. We introduceren een raamwerk genaamd Patchscopes en laten zien hoe het kan worden gebruikt om een breed scala aan onderzoeksvragen over de berekeningen van een LLM te beantwoorden. We tonen aan dat eerdere interpreteerbaarheidsmethoden die gebaseerd zijn op het projecteren van representaties in de vocabulaire-ruimte en het ingrijpen in de LLM-berekeningen, kunnen worden gezien als speciale gevallen van dit raamwerk. Bovendien kunnen verschillende van hun tekortkomingen, zoals het falen bij het inspecteren van vroege lagen of een gebrek aan expressiviteit, worden verholpen door een Patchscope. Naast het verenigen van eerdere inspectietechnieken, opent Patchscopes ook nieuwe mogelijkheden, zoals het gebruik van een krachtiger model om de representaties van een kleiner model uit te leggen, en ontgrendelt het nieuwe toepassingen, zoals zelfcorrectie in multi-hop redenering.
English
Inspecting the information encoded in hidden representations of large language models (LLMs) can explain models' behavior and verify their alignment with human values. Given the capabilities of LLMs in generating human-understandable text, we propose leveraging the model itself to explain its internal representations in natural language. We introduce a framework called Patchscopes and show how it can be used to answer a wide range of research questions about an LLM's computation. We show that prior interpretability methods based on projecting representations into the vocabulary space and intervening on the LLM computation, can be viewed as special instances of this framework. Moreover, several of their shortcomings such as failure in inspecting early layers or lack of expressivity can be mitigated by a Patchscope. Beyond unifying prior inspection techniques, Patchscopes also opens up new possibilities such as using a more capable model to explain the representations of a smaller model, and unlocks new applications such as self-correction in multi-hop reasoning.
PDF210April 9, 2026