Hipótesis de Representación de Marcos: Interpretabilidad de LLM de Múltiples Tokens y Generación de Texto Guiada por Conceptos
Frame Representation Hypothesis: Multi-Token LLM Interpretability and Concept-Guided Text Generation
December 10, 2024
Autores: Pedro H. V. Valois, Lincon S. Souza, Erica K. Shimomoto, Kazuhiro Fukui
cs.AI
Resumen
La interpretabilidad es un desafío clave para fomentar la confianza en los Modelos de Lenguaje Grandes (LLMs), que surge de la complejidad de extraer el razonamiento de los parámetros del modelo. Presentamos la Hipótesis de Representación de Marcos, un marco teóricamente sólido fundamentado en la Hipótesis de Representación Lineal (LRH) para interpretar y controlar LLMs mediante la modelización de palabras multi-token. Investigaciones previas exploraron LRH para conectar las representaciones de LLM con conceptos lingüísticos, pero se limitaron al análisis de un solo token. Dado que la mayoría de las palabras están compuestas por varios tokens, ampliamos LRH a palabras multi-token, lo que permite su uso en cualquier dato textual con miles de conceptos. Con este fin, proponemos que las palabras pueden ser interpretadas como marcos, secuencias ordenadas de vectores que capturan mejor las relaciones entre tokens y palabras. Luego, los conceptos pueden ser representados como el promedio de los marcos de palabras que comparten un concepto común. Mostramos estas herramientas a través de la Decodificación Guiada por Conceptos Top-k, que puede dirigir intuitivamente la generación de texto utilizando conceptos elegidos. Verificamos estas ideas en las familias Llama 3.1, Gemma 2 y Phi 3, demostrando sesgos de género y de lenguaje, exponiendo contenido perjudicial, pero también el potencial para remediarlos, lo que conduce a LLMs más seguros y transparentes. El código está disponible en https://github.com/phvv-me/frame-representation-hypothesis.git
English
Interpretability is a key challenge in fostering trust for Large Language
Models (LLMs), which stems from the complexity of extracting reasoning from
model's parameters. We present the Frame Representation Hypothesis, a
theoretically robust framework grounded in the Linear Representation Hypothesis
(LRH) to interpret and control LLMs by modeling multi-token words. Prior
research explored LRH to connect LLM representations with linguistic concepts,
but was limited to single token analysis. As most words are composed of several
tokens, we extend LRH to multi-token words, thereby enabling usage on any
textual data with thousands of concepts. To this end, we propose words can be
interpreted as frames, ordered sequences of vectors that better capture
token-word relationships. Then, concepts can be represented as the average of
word frames sharing a common concept. We showcase these tools through Top-k
Concept-Guided Decoding, which can intuitively steer text generation using
concepts of choice. We verify said ideas on Llama 3.1, Gemma 2, and Phi 3
families, demonstrating gender and language biases, exposing harmful content,
but also potential to remediate them, leading to safer and more transparent
LLMs. Code is available at
https://github.com/phvv-me/frame-representation-hypothesis.gitSummary
AI-Generated Summary