ChatPaper.aiChatPaper

Alles Overal Altijd: LLM's kunnen Meerdere Taken In-Context Leren in Superpositie

Everything Everywhere All at Once: LLMs can In-Context Learn Multiple Tasks in Superposition

October 8, 2024
Auteurs: Zheyang Xiong, Ziyang Cai, John Cooper, Albert Ge, Vasilis Papageorgiou, Zack Sifakis, Angeliki Giannou, Ziqian Lin, Liu Yang, Saurabh Agarwal, Grigorios G Chrysos, Samet Oymak, Kangwook Lee, Dimitris Papailiopoulos
cs.AI

Samenvatting

Grote Taalmodellen (LLM's) hebben opmerkelijke in-context leermogelijkheden (ICL) gedemonstreerd. In dit onderzoek verkennen we een verrassend fenomeen met betrekking tot ICL: LLM's kunnen meerdere, computationeel onderscheidbare ICL-taken tegelijkertijd uitvoeren, tijdens een enkele inferentieoproep, een mogelijkheid die we "taaksuperpositie" noemen. We bieden empirisch bewijs van dit fenomeen over verschillende LLM-families en schalen en tonen aan dat dit fenomeen zelfs naar voren komt als we het model trainen om één taak tegelijkertijd in-context te leren. We bieden theoretische verklaringen dat deze mogelijkheid goed binnen de expressieve kracht van transformers valt. We onderzoeken ook hoe LLM's intern taakvectoren componeren tijdens superpositie. Bovendien laten we zien dat grotere modellen meer ICL-taken parallel kunnen oplossen en hun uitvoer distributie beter kunnen kalibreren. Onze bevindingen bieden inzicht in de latente mogelijkheden van LLM's, ondersteunen verder het perspectief van "LLM's als superpositie van simulatoren" en roepen vragen op over de mechanismen die gelijktijdige taakuitvoering mogelijk maken.
English
Large Language Models (LLMs) have demonstrated remarkable in-context learning (ICL) capabilities. In this study, we explore a surprising phenomenon related to ICL: LLMs can perform multiple, computationally distinct ICL tasks simultaneously, during a single inference call, a capability we term "task superposition". We provide empirical evidence of this phenomenon across various LLM families and scales and show that this phenomenon emerges even if we train the model to in-context learn one task at a time. We offer theoretical explanations that this capability is well within the expressive power of transformers. We also explore how LLMs internally compose task vectors during superposition. Furthermore, we show that larger models can solve more ICL tasks in parallel, and better calibrate their output distribution. Our findings offer insights into the latent capabilities of LLMs, further substantiate the perspective of "LLMs as superposition of simulators", and raise questions about the mechanisms enabling simultaneous task execution.

Summary

AI-Generated Summary

PDF112November 16, 2024