ChatPaper.aiChatPaper

Hipótesis de Representación de Marcos: Interpretabilidad de LLM de Múltiples Tokens y Generación de Texto Guiada por Conceptos

Frame Representation Hypothesis: Multi-Token LLM Interpretability and Concept-Guided Text Generation

December 10, 2024
Autores: Pedro H. V. Valois, Lincon S. Souza, Erica K. Shimomoto, Kazuhiro Fukui
cs.AI

Resumen

La interpretabilidad es un desafío clave para fomentar la confianza en los Modelos de Lenguaje Grandes (LLMs), que surge de la complejidad de extraer el razonamiento de los parámetros del modelo. Presentamos la Hipótesis de Representación de Marcos, un marco teóricamente sólido fundamentado en la Hipótesis de Representación Lineal (LRH) para interpretar y controlar LLMs mediante la modelización de palabras multi-token. Investigaciones previas exploraron LRH para conectar las representaciones de LLM con conceptos lingüísticos, pero se limitaron al análisis de un solo token. Dado que la mayoría de las palabras están compuestas por varios tokens, ampliamos LRH a palabras multi-token, lo que permite su uso en cualquier dato textual con miles de conceptos. Con este fin, proponemos que las palabras pueden ser interpretadas como marcos, secuencias ordenadas de vectores que capturan mejor las relaciones entre tokens y palabras. Luego, los conceptos pueden ser representados como el promedio de los marcos de palabras que comparten un concepto común. Mostramos estas herramientas a través de la Decodificación Guiada por Conceptos Top-k, que puede dirigir intuitivamente la generación de texto utilizando conceptos elegidos. Verificamos estas ideas en las familias Llama 3.1, Gemma 2 y Phi 3, demostrando sesgos de género y de lenguaje, exponiendo contenido perjudicial, pero también el potencial para remediarlos, lo que conduce a LLMs más seguros y transparentes. El código está disponible en https://github.com/phvv-me/frame-representation-hypothesis.git
English
Interpretability is a key challenge in fostering trust for Large Language Models (LLMs), which stems from the complexity of extracting reasoning from model's parameters. We present the Frame Representation Hypothesis, a theoretically robust framework grounded in the Linear Representation Hypothesis (LRH) to interpret and control LLMs by modeling multi-token words. Prior research explored LRH to connect LLM representations with linguistic concepts, but was limited to single token analysis. As most words are composed of several tokens, we extend LRH to multi-token words, thereby enabling usage on any textual data with thousands of concepts. To this end, we propose words can be interpreted as frames, ordered sequences of vectors that better capture token-word relationships. Then, concepts can be represented as the average of word frames sharing a common concept. We showcase these tools through Top-k Concept-Guided Decoding, which can intuitively steer text generation using concepts of choice. We verify said ideas on Llama 3.1, Gemma 2, and Phi 3 families, demonstrating gender and language biases, exposing harmful content, but also potential to remediate them, leading to safer and more transparent LLMs. Code is available at https://github.com/phvv-me/frame-representation-hypothesis.git

Summary

AI-Generated Summary

PDF164December 11, 2024