Hipótese da Representação em Quadros: Interpretabilidade de LLM de Múltiplos Tokens e Geração de Texto Guiada por Conceitos
Frame Representation Hypothesis: Multi-Token LLM Interpretability and Concept-Guided Text Generation
December 10, 2024
Autores: Pedro H. V. Valois, Lincon S. Souza, Erica K. Shimomoto, Kazuhiro Fukui
cs.AI
Resumo
A interpretabilidade é um desafio fundamental para promover confiança em Modelos de Linguagem Grandes (LLMs), que decorre da complexidade de extrair raciocínio a partir dos parâmetros do modelo. Apresentamos a Hipótese da Representação de Frames, um arcabouço teoricamente robusto fundamentado na Hipótese da Representação Linear (LRH) para interpretar e controlar LLMs modelando palavras multi-token. Pesquisas anteriores exploraram a LRH para conectar representações de LLMs com conceitos linguísticos, mas estavam limitadas à análise de tokens únicos. Como a maioria das palavras é composta por vários tokens, estendemos a LRH para palavras multi-token, permitindo assim o uso em qualquer dado textual com milhares de conceitos. Para isso, propomos que palavras possam ser interpretadas como frames, sequências ordenadas de vetores que capturam melhor as relações entre token e palavra. Em seguida, os conceitos podem ser representados pela média dos frames de palavras que compartilham um conceito comum. Demonstramos essas ferramentas por meio da Decodificação Guiada por Conceitos Top-k, que pode direcionar intuitivamente a geração de texto usando conceitos de escolha. Verificamos essas ideias nos conjuntos de dados Llama 3.1, Gemma 2 e Phi 3, demonstrando vieses de gênero e linguagem, expondo conteúdo prejudicial, mas também o potencial para remediá-los, levando a LLMs mais seguros e transparentes. O código está disponível em https://github.com/phvv-me/frame-representation-hypothesis.git
English
Interpretability is a key challenge in fostering trust for Large Language
Models (LLMs), which stems from the complexity of extracting reasoning from
model's parameters. We present the Frame Representation Hypothesis, a
theoretically robust framework grounded in the Linear Representation Hypothesis
(LRH) to interpret and control LLMs by modeling multi-token words. Prior
research explored LRH to connect LLM representations with linguistic concepts,
but was limited to single token analysis. As most words are composed of several
tokens, we extend LRH to multi-token words, thereby enabling usage on any
textual data with thousands of concepts. To this end, we propose words can be
interpreted as frames, ordered sequences of vectors that better capture
token-word relationships. Then, concepts can be represented as the average of
word frames sharing a common concept. We showcase these tools through Top-k
Concept-Guided Decoding, which can intuitively steer text generation using
concepts of choice. We verify said ideas on Llama 3.1, Gemma 2, and Phi 3
families, demonstrating gender and language biases, exposing harmful content,
but also potential to remediate them, leading to safer and more transparent
LLMs. Code is available at
https://github.com/phvv-me/frame-representation-hypothesis.gitSummary
AI-Generated Summary