LLM-Mikroskop: Die versteckte Rolle der Interpunktion im Kontextgedächtnis von TransformernLLM-Microscope: Uncovering the Hidden Role of Punctuation in Context
Memory of Transformers
Wir stellen Methoden vor, um zu quantifizieren, wie Large Language Models (LLMs) kontextuelle Informationen kodieren und speichern. Dabei zeigt sich, dass Token, die oft als unbedeutend angesehen werden (z. B. Artikel, Satzzeichen), überraschend viel Kontext tragen. Bemerkenswerterweise führt das Entfernen dieser Token – insbesondere von Stoppwörtern, Artikeln und Kommas – zu einer konsistenten Verschlechterung der Leistung bei MMLU und BABILong-4k, selbst wenn nur irrelevante Token entfernt werden. Unsere Analyse zeigt auch eine starke Korrelation zwischen Kontextualisierung und Linearität, wobei Linearität misst, wie gut die Transformation von den Embeddings einer Schicht zur nächsten durch eine einzelne lineare Abbildung approximiert werden kann. Diese Erkenntnisse unterstreichen die verborgene Bedeutung von Füll-Token für die Aufrechterhaltung des Kontexts. Zur weiteren Untersuchung präsentieren wir LLM-Microscope, ein Open-Source-Toolkit, das Token-Level-Nichtlinearität bewertet, kontextuelles Gedächtnis analysiert, Beiträge von Zwischenschichten visualisiert (über eine angepasste Logit Lens) und die intrinsische Dimensionalität von Repräsentationen misst. Dieses Toolkit verdeutlicht, wie scheinbar triviale Token für das langfristige Verständnis entscheidend sein können.