ChatPaper.aiChatPaper

Hipótese da Representação em Quadros: Interpretabilidade de LLM de Múltiplos Tokens e Geração de Texto Guiada por Conceitos

Frame Representation Hypothesis: Multi-Token LLM Interpretability and Concept-Guided Text Generation

December 10, 2024
Autores: Pedro H. V. Valois, Lincon S. Souza, Erica K. Shimomoto, Kazuhiro Fukui
cs.AI

Resumo

A interpretabilidade é um desafio fundamental para promover confiança em Modelos de Linguagem Grandes (LLMs), que decorre da complexidade de extrair raciocínio a partir dos parâmetros do modelo. Apresentamos a Hipótese da Representação de Frames, um arcabouço teoricamente robusto fundamentado na Hipótese da Representação Linear (LRH) para interpretar e controlar LLMs modelando palavras multi-token. Pesquisas anteriores exploraram a LRH para conectar representações de LLMs com conceitos linguísticos, mas estavam limitadas à análise de tokens únicos. Como a maioria das palavras é composta por vários tokens, estendemos a LRH para palavras multi-token, permitindo assim o uso em qualquer dado textual com milhares de conceitos. Para isso, propomos que palavras possam ser interpretadas como frames, sequências ordenadas de vetores que capturam melhor as relações entre token e palavra. Em seguida, os conceitos podem ser representados pela média dos frames de palavras que compartilham um conceito comum. Demonstramos essas ferramentas por meio da Decodificação Guiada por Conceitos Top-k, que pode direcionar intuitivamente a geração de texto usando conceitos de escolha. Verificamos essas ideias nos conjuntos de dados Llama 3.1, Gemma 2 e Phi 3, demonstrando vieses de gênero e linguagem, expondo conteúdo prejudicial, mas também o potencial para remediá-los, levando a LLMs mais seguros e transparentes. O código está disponível em https://github.com/phvv-me/frame-representation-hypothesis.git
English
Interpretability is a key challenge in fostering trust for Large Language Models (LLMs), which stems from the complexity of extracting reasoning from model's parameters. We present the Frame Representation Hypothesis, a theoretically robust framework grounded in the Linear Representation Hypothesis (LRH) to interpret and control LLMs by modeling multi-token words. Prior research explored LRH to connect LLM representations with linguistic concepts, but was limited to single token analysis. As most words are composed of several tokens, we extend LRH to multi-token words, thereby enabling usage on any textual data with thousands of concepts. To this end, we propose words can be interpreted as frames, ordered sequences of vectors that better capture token-word relationships. Then, concepts can be represented as the average of word frames sharing a common concept. We showcase these tools through Top-k Concept-Guided Decoding, which can intuitively steer text generation using concepts of choice. We verify said ideas on Llama 3.1, Gemma 2, and Phi 3 families, demonstrating gender and language biases, exposing harmful content, but also potential to remediate them, leading to safer and more transparent LLMs. Code is available at https://github.com/phvv-me/frame-representation-hypothesis.git

Summary

AI-Generated Summary

PDF164December 11, 2024