ChatPaper.aiChatPaper

Alles Überall Alles auf Einmal: LLMs können Mehrere Aufgaben im Überlagerungszustand Lernen

Everything Everywhere All at Once: LLMs can In-Context Learn Multiple Tasks in Superposition

October 8, 2024
Autoren: Zheyang Xiong, Ziyang Cai, John Cooper, Albert Ge, Vasilis Papageorgiou, Zack Sifakis, Angeliki Giannou, Ziqian Lin, Liu Yang, Saurabh Agarwal, Grigorios G Chrysos, Samet Oymak, Kangwook Lee, Dimitris Papailiopoulos
cs.AI

Zusammenfassung

Große Sprachmodelle (LLMs) haben bemerkenswerte Fähigkeiten zum Lernen im Kontext (ICL) gezeigt. In dieser Studie untersuchen wir ein überraschendes Phänomen im Zusammenhang mit ICL: LLMs können mehrere, rechnerisch unterschiedliche ICL-Aufgaben gleichzeitig während eines einzigen Inferenzaufrufs ausführen, eine Fähigkeit, die wir als "Aufgaben-Superposition" bezeichnen. Wir liefern empirische Beweise für dieses Phänomen über verschiedene LLM-Familien und Skalen hinweg und zeigen, dass dieses Phänomen auch dann auftritt, wenn wir das Modell darauf trainieren, jeweils eine Aufgabe im Kontext zu erlernen. Wir bieten theoretische Erklärungen dafür, dass diese Fähigkeit im Rahmen der Ausdrucksstärke von Transformatoren liegt. Wir untersuchen auch, wie LLMs während der Superposition intern Aufgabenvektoren komponieren. Darüber hinaus zeigen wir, dass größere Modelle mehr ICL-Aufgaben parallel lösen können und ihre Ausgabeverteilung besser kalibrieren können. Unsere Ergebnisse bieten Einblicke in die latenten Fähigkeiten von LLMs, untermauern weiterhin die Perspektive der "LLMs als Superposition von Simulatoren" und werfen Fragen zu den Mechanismen auf, die eine gleichzeitige Aufgabenausführung ermöglichen.
English
Large Language Models (LLMs) have demonstrated remarkable in-context learning (ICL) capabilities. In this study, we explore a surprising phenomenon related to ICL: LLMs can perform multiple, computationally distinct ICL tasks simultaneously, during a single inference call, a capability we term "task superposition". We provide empirical evidence of this phenomenon across various LLM families and scales and show that this phenomenon emerges even if we train the model to in-context learn one task at a time. We offer theoretical explanations that this capability is well within the expressive power of transformers. We also explore how LLMs internally compose task vectors during superposition. Furthermore, we show that larger models can solve more ICL tasks in parallel, and better calibrate their output distribution. Our findings offer insights into the latent capabilities of LLMs, further substantiate the perspective of "LLMs as superposition of simulators", and raise questions about the mechanisms enabling simultaneous task execution.

Summary

AI-Generated Summary

PDF112November 16, 2024