Nacimiento de un Transformer: Una Perspectiva desde la Memoria
Birth of a Transformer: A Memory Viewpoint
June 1, 2023
Autores: Alberto Bietti, Vivien Cabannes, Diane Bouchacourt, Herve Jegou, Leon Bottou
cs.AI
Resumen
Los grandes modelos de lenguaje basados en transformadores han logrado grandes éxitos empíricos. Sin embargo, a medida que se despliegan más ampliamente, existe una creciente necesidad de comprender mejor sus mecanismos internos para hacerlos más confiables. Estos modelos parecen almacenar grandes cantidades de conocimiento a partir de sus datos de entrenamiento y adaptarse rápidamente a nueva información proporcionada en su contexto o indicación. Estudiamos cómo los transformadores equilibran estos dos tipos de conocimiento considerando una configuración sintética donde los tokens se generan a partir de distribuciones de bigramas globales o específicas del contexto. Mediante un análisis empírico cuidadoso del proceso de entrenamiento en un transformador simplificado de dos capas, ilustramos el aprendizaje rápido de bigramas globales y el desarrollo más lento de un mecanismo de "cabeza de inducción" para los bigramas en contexto. Destacamos el papel de las matrices de pesos como memorias asociativas, proporcionamos ideas teóricas sobre cómo los gradientes permiten su aprendizaje durante el entrenamiento y estudiamos el papel de las propiedades distribucionales de los datos.
English
Large language models based on transformers have achieved great empirical
successes. However, as they are deployed more widely, there is a growing need
to better understand their internal mechanisms in order to make them more
reliable. These models appear to store vast amounts of knowledge from their
training data, and to adapt quickly to new information provided in their
context or prompt. We study how transformers balance these two types of
knowledge by considering a synthetic setup where tokens are generated from
either global or context-specific bigram distributions. By a careful empirical
analysis of the training process on a simplified two-layer transformer, we
illustrate the fast learning of global bigrams and the slower development of an
"induction head" mechanism for the in-context bigrams. We highlight the role of
weight matrices as associative memories, provide theoretical insights on how
gradients enable their learning during training, and study the role of
data-distributional properties.