ChatPaper.aiChatPaper

Rahmenrepräsentationshypothese: Interpretierbarkeit von Multi-Token-Sprachmodellen und konzeptgesteuerte Textgenerierung

Frame Representation Hypothesis: Multi-Token LLM Interpretability and Concept-Guided Text Generation

December 10, 2024
Autoren: Pedro H. V. Valois, Lincon S. Souza, Erica K. Shimomoto, Kazuhiro Fukui
cs.AI

Zusammenfassung

Die Interpretierbarkeit ist eine zentrale Herausforderung bei der Förderung des Vertrauens in Large Language Models (LLMs), die auf der Komplexität der Extraktion von Schlussfolgerungen aus den Parametern des Modells beruht. Wir präsentieren die Rahmenrepräsentationshypothese, ein theoretisch robustes Framework, das auf der linearen Repräsentationshypothese (LRH) basiert, um LLMs durch Modellierung von Mehr-Token-Wörtern zu interpretieren und zu steuern. Frühere Forschungen haben die LRH erforscht, um LLM-Repräsentationen mit linguistischen Konzepten zu verbinden, beschränkten sich jedoch auf die Analyse einzelner Token. Da die meisten Wörter aus mehreren Tokens bestehen, erweitern wir die LRH auf Mehr-Token-Wörter, was die Anwendung auf beliebige Textdaten mit Tausenden von Konzepten ermöglicht. Zu diesem Zweck schlagen wir vor, Wörter als Rahmen interpretieren zu können, geordnete Sequenzen von Vektoren, die die Token-Wort-Beziehungen besser erfassen. Dann können Konzepte als Durchschnitt der Wortrahmen dargestellt werden, die ein gemeinsames Konzept teilen. Wir präsentieren diese Tools durch Top-k Concept-Guided Decoding, das die Textgenerierung intuitiv mit ausgewählten Konzepten lenken kann. Wir überprüfen diese Ideen anhand der Llama 3.1, Gemma 2 und Phi 3 Familien, indem wir Geschlechts- und Sprachvorurteile aufdecken, schädliche Inhalte bloßlegen, aber auch das Potenzial haben, diese zu beheben, was zu sichereren und transparenteren LLMs führt. Der Code ist verfügbar unter https://github.com/phvv-me/frame-representation-hypothesis.git
English
Interpretability is a key challenge in fostering trust for Large Language Models (LLMs), which stems from the complexity of extracting reasoning from model's parameters. We present the Frame Representation Hypothesis, a theoretically robust framework grounded in the Linear Representation Hypothesis (LRH) to interpret and control LLMs by modeling multi-token words. Prior research explored LRH to connect LLM representations with linguistic concepts, but was limited to single token analysis. As most words are composed of several tokens, we extend LRH to multi-token words, thereby enabling usage on any textual data with thousands of concepts. To this end, we propose words can be interpreted as frames, ordered sequences of vectors that better capture token-word relationships. Then, concepts can be represented as the average of word frames sharing a common concept. We showcase these tools through Top-k Concept-Guided Decoding, which can intuitively steer text generation using concepts of choice. We verify said ideas on Llama 3.1, Gemma 2, and Phi 3 families, demonstrating gender and language biases, exposing harmful content, but also potential to remediate them, leading to safer and more transparent LLMs. Code is available at https://github.com/phvv-me/frame-representation-hypothesis.git

Summary

AI-Generated Summary

PDF164December 11, 2024