ChatPaper.aiChatPaper

すべての場所ですべてを一度に:LLMsは重ね合わせで複数のタスクをコンテキスト内で学習できます

Everything Everywhere All at Once: LLMs can In-Context Learn Multiple Tasks in Superposition

October 8, 2024
著者: Zheyang Xiong, Ziyang Cai, John Cooper, Albert Ge, Vasilis Papageorgiou, Zack Sifakis, Angeliki Giannou, Ziqian Lin, Liu Yang, Saurabh Agarwal, Grigorios G Chrysos, Samet Oymak, Kangwook Lee, Dimitris Papailiopoulos
cs.AI

要旨

大規模言語モデル(LLM)は、コンテキスト内学習(ICL)能力において顕著な成果を示しています。本研究では、ICLに関連する驚くべき現象を探求します。LLMは、1回の推論呼び出し中に複数の計算的に異なるICLタスクを同時に実行できる能力、つまり「タスク重畳」と呼ぶこの能力を持つことができます。我々は、この現象の実証的証拠をさまざまなLLMファミリーやスケールで提供し、この現象がモデルを1つずつコンテキスト内で学習させても発生することを示します。我々は、この能力がトランスフォーマーの表現力の範囲内であるという理論的説明を提供します。また、LLMがタスクベクトルをタスク重畳中に内部的にどのように構成するかを探求します。さらに、より大きなモデルは、より多くのICLタスクを並行して解決し、出力分布をより適切にキャリブレートできることを示します。我々の研究結果は、LLMの潜在的な能力に関する洞察を提供し、"LLMはシミュレータの重畳"の観点をさらに裏付け、同時タスク実行を可能にするメカニズムについて疑問を投げかけます。
English
Large Language Models (LLMs) have demonstrated remarkable in-context learning (ICL) capabilities. In this study, we explore a surprising phenomenon related to ICL: LLMs can perform multiple, computationally distinct ICL tasks simultaneously, during a single inference call, a capability we term "task superposition". We provide empirical evidence of this phenomenon across various LLM families and scales and show that this phenomenon emerges even if we train the model to in-context learn one task at a time. We offer theoretical explanations that this capability is well within the expressive power of transformers. We also explore how LLMs internally compose task vectors during superposition. Furthermore, we show that larger models can solve more ICL tasks in parallel, and better calibrate their output distribution. Our findings offer insights into the latent capabilities of LLMs, further substantiate the perspective of "LLMs as superposition of simulators", and raise questions about the mechanisms enabling simultaneous task execution.

Summary

AI-Generated Summary

PDF112November 16, 2024