ChatPaper.aiChatPaper

Tudo em Todo Lugar de Uma Vez: LLMs podem Aprender Múltiplas Tarefas em Contexto em Superposição

Everything Everywhere All at Once: LLMs can In-Context Learn Multiple Tasks in Superposition

October 8, 2024
Autores: Zheyang Xiong, Ziyang Cai, John Cooper, Albert Ge, Vasilis Papageorgiou, Zack Sifakis, Angeliki Giannou, Ziqian Lin, Liu Yang, Saurabh Agarwal, Grigorios G Chrysos, Samet Oymak, Kangwook Lee, Dimitris Papailiopoulos
cs.AI

Resumo

Os Modelos de Linguagem de Grande Escala (LLMs) demonstraram notáveis capacidades de aprendizado em contexto (ICL). Neste estudo, exploramos um fenômeno surpreendente relacionado ao ICL: os LLMs podem realizar múltiplas tarefas de ICL computacionalmente distintas simultaneamente, durante uma única chamada de inferência, uma capacidade que denominamos "superposição de tarefas". Fornecemos evidências empíricas desse fenômeno em diversas famílias e escalas de LLMs e mostramos que esse fenômeno emerge mesmo se treinarmos o modelo para aprender em contexto uma tarefa de cada vez. Oferecemos explicações teóricas de que essa capacidade está dentro do poder expressivo dos transformadores. Também exploramos como os LLMs compõem internamente vetores de tarefas durante a superposição. Além disso, demonstramos que modelos maiores podem resolver mais tarefas de ICL em paralelo e calibrar melhor a distribuição de suas saídas. Nossas descobertas oferecem insights sobre as capacidades latentes dos LLMs, corroboram ainda mais a perspectiva de "LLMs como superposição de simuladores" e levantam questões sobre os mecanismos que permitem a execução simultânea de tarefas.
English
Large Language Models (LLMs) have demonstrated remarkable in-context learning (ICL) capabilities. In this study, we explore a surprising phenomenon related to ICL: LLMs can perform multiple, computationally distinct ICL tasks simultaneously, during a single inference call, a capability we term "task superposition". We provide empirical evidence of this phenomenon across various LLM families and scales and show that this phenomenon emerges even if we train the model to in-context learn one task at a time. We offer theoretical explanations that this capability is well within the expressive power of transformers. We also explore how LLMs internally compose task vectors during superposition. Furthermore, we show that larger models can solve more ICL tasks in parallel, and better calibrate their output distribution. Our findings offer insights into the latent capabilities of LLMs, further substantiate the perspective of "LLMs as superposition of simulators", and raise questions about the mechanisms enabling simultaneous task execution.

Summary

AI-Generated Summary

PDF112November 16, 2024