ChatPaper.aiChatPaper

Los análisis de circuitos LLM son consistentes a lo largo del entrenamiento y la escala.

LLM Circuit Analyses Are Consistent Across Training and Scale

July 15, 2024
Autores: Curt Tigges, Michael Hanna, Qinan Yu, Stella Biderman
cs.AI

Resumen

La mayoría de los grandes modelos de lenguaje (LLMs) actualmente desplegados se someten a entrenamiento continuo o ajustes adicionales. En contraste, la mayoría de la investigación sobre los mecanismos internos de los LLMs se centra en modelos en un solo momento en el tiempo (al final del pre-entrenamiento), lo que plantea la pregunta de si sus resultados se generalizan a entornos del mundo real. Los estudios existentes sobre los mecanismos a lo largo del tiempo se centran en modelos solo de codificador o modelos simplificados, que difieren significativamente de la mayoría de los modelos desplegados. En este estudio, seguimos cómo los mecanismos del modelo, operacionalizados como circuitos, emergen y evolucionan a lo largo de 300 mil millones de tokens de entrenamiento en LLMs solo de decodificador, en modelos que van desde 70 millones hasta 2.8 mil millones de parámetros. Descubrimos que las habilidades de la tarea y los componentes funcionales que las respaldan emergen de manera consistente en recuentos de tokens similares a lo largo de la escala. Además, aunque estos componentes pueden ser implementados por diferentes cabezas de atención con el tiempo, el algoritmo principal que implementan permanece. Sorprendentemente, tanto estos algoritmos como los tipos de componentes involucrados en ellos pueden replicarse a lo largo de la escala del modelo. Estos resultados sugieren que los análisis de circuitos realizados en modelos pequeños al final del pre-entrenamiento pueden proporcionar ideas que siguen siendo válidas después de un pre-entrenamiento adicional y a lo largo de la escala del modelo.
English
Most currently deployed large language models (LLMs) undergo continuous training or additional finetuning. By contrast, most research into LLMs' internal mechanisms focuses on models at one snapshot in time (the end of pre-training), raising the question of whether their results generalize to real-world settings. Existing studies of mechanisms over time focus on encoder-only or toy models, which differ significantly from most deployed models. In this study, we track how model mechanisms, operationalized as circuits, emerge and evolve across 300 billion tokens of training in decoder-only LLMs, in models ranging from 70 million to 2.8 billion parameters. We find that task abilities and the functional components that support them emerge consistently at similar token counts across scale. Moreover, although such components may be implemented by different attention heads over time, the overarching algorithm that they implement remains. Surprisingly, both these algorithms and the types of components involved therein can replicate across model scale. These results suggest that circuit analyses conducted on small models at the end of pre-training can provide insights that still apply after additional pre-training and over model scale.
PDF52November 28, 2024