Tout partout tout à la fois : les LLM peuvent apprendre en contexte plusieurs tâches en superposition
Everything Everywhere All at Once: LLMs can In-Context Learn Multiple Tasks in Superposition
October 8, 2024
Auteurs: Zheyang Xiong, Ziyang Cai, John Cooper, Albert Ge, Vasilis Papageorgiou, Zack Sifakis, Angeliki Giannou, Ziqian Lin, Liu Yang, Saurabh Agarwal, Grigorios G Chrysos, Samet Oymak, Kangwook Lee, Dimitris Papailiopoulos
cs.AI
Résumé
Les grands modèles de langage (LLM) ont démontré des capacités d'apprentissage en contexte remarquables. Dans cette étude, nous explorons un phénomène surprenant lié à l'apprentissage en contexte : les LLM peuvent effectuer simultanément plusieurs tâches d'apprentissage en contexte computationnellement distinctes, lors d'un seul appel d'inférence, une capacité que nous appelons "superposition de tâches". Nous fournissons des preuves empiriques de ce phénomène à travers diverses familles et échelles de LLM, et montrons que ce phénomène émerge même si nous entraînons le modèle à apprendre en contexte une tâche à la fois. Nous proposons des explications théoriques selon lesquelles cette capacité est bien dans le pouvoir expressif des transformeurs. Nous explorons également comment les LLM composent internement des vecteurs de tâches lors de la superposition. De plus, nous montrons que les modèles plus grands peuvent résoudre davantage de tâches d'apprentissage en contexte en parallèle, et mieux calibrer leur distribution de sortie. Nos découvertes offrent des perspectives sur les capacités latentes des LLM, renforcent davantage la perspective des "LLM en tant que superposition de simulateurs", et soulèvent des questions sur les mécanismes permettant l'exécution simultanée de tâches.
English
Large Language Models (LLMs) have demonstrated remarkable in-context learning
(ICL) capabilities. In this study, we explore a surprising phenomenon related
to ICL: LLMs can perform multiple, computationally distinct ICL tasks
simultaneously, during a single inference call, a capability we term "task
superposition". We provide empirical evidence of this phenomenon across various
LLM families and scales and show that this phenomenon emerges even if we train
the model to in-context learn one task at a time. We offer theoretical
explanations that this capability is well within the expressive power of
transformers. We also explore how LLMs internally compose task vectors during
superposition. Furthermore, we show that larger models can solve more ICL tasks
in parallel, and better calibrate their output distribution. Our findings offer
insights into the latent capabilities of LLMs, further substantiate the
perspective of "LLMs as superposition of simulators", and raise questions about
the mechanisms enabling simultaneous task execution.Summary
AI-Generated Summary