ChatPaper.aiChatPaper

Les analyses de circuits des LLM sont cohérentes à travers l'entraînement et l'échelle

LLM Circuit Analyses Are Consistent Across Training and Scale

July 15, 2024
Auteurs: Curt Tigges, Michael Hanna, Qinan Yu, Stella Biderman
cs.AI

Résumé

La plupart des grands modèles de langage (LLM) actuellement déployés subissent un entraînement continu ou un affinage supplémentaire. En revanche, la majorité des recherches sur les mécanismes internes des LLM se concentrent sur des modèles à un instant donné (la fin du pré-entraînement), soulevant la question de savoir si leurs résultats se généralisent à des contextes réels. Les études existantes sur les mécanismes au fil du temps se focalisent sur des modèles encodeurs uniquement ou des modèles simplifiés, qui diffèrent significativement de la plupart des modèles déployés. Dans cette étude, nous suivons l'émergence et l'évolution des mécanismes des modèles, opérationnalisés sous forme de circuits, au cours de l'entraînement sur 300 milliards de tokens dans des LLM décodeurs uniquement, avec des modèles allant de 70 millions à 2,8 milliards de paramètres. Nous constatons que les capacités des tâches et les composants fonctionnels qui les soutiennent émergent de manière cohérente à des comptes de tokens similaires, quelle que soit l'échelle. De plus, bien que ces composants puissent être implémentés par différentes têtes d'attention au fil du temps, l'algorithme global qu'ils mettent en œuvre reste inchangé. Étonnamment, ces algorithmes ainsi que les types de composants impliqués peuvent se répliquer à travers différentes échelles de modèles. Ces résultats suggèrent que les analyses de circuits effectuées sur des petits modèles à la fin du pré-entraînement peuvent fournir des insights qui restent pertinents après un pré-entraînement supplémentaire et à travers différentes échelles de modèles.
English
Most currently deployed large language models (LLMs) undergo continuous training or additional finetuning. By contrast, most research into LLMs' internal mechanisms focuses on models at one snapshot in time (the end of pre-training), raising the question of whether their results generalize to real-world settings. Existing studies of mechanisms over time focus on encoder-only or toy models, which differ significantly from most deployed models. In this study, we track how model mechanisms, operationalized as circuits, emerge and evolve across 300 billion tokens of training in decoder-only LLMs, in models ranging from 70 million to 2.8 billion parameters. We find that task abilities and the functional components that support them emerge consistently at similar token counts across scale. Moreover, although such components may be implemented by different attention heads over time, the overarching algorithm that they implement remains. Surprisingly, both these algorithms and the types of components involved therein can replicate across model scale. These results suggest that circuit analyses conducted on small models at the end of pre-training can provide insights that still apply after additional pre-training and over model scale.

Summary

AI-Generated Summary

PDF52November 28, 2024