ChatPaper.aiChatPaper

Всё везде сразу: LLM-модели могут изучать несколько задач в контексте одновременно.

Everything Everywhere All at Once: LLMs can In-Context Learn Multiple Tasks in Superposition

October 8, 2024
Авторы: Zheyang Xiong, Ziyang Cai, John Cooper, Albert Ge, Vasilis Papageorgiou, Zack Sifakis, Angeliki Giannou, Ziqian Lin, Liu Yang, Saurabh Agarwal, Grigorios G Chrysos, Samet Oymak, Kangwook Lee, Dimitris Papailiopoulos
cs.AI

Аннотация

Большие языковые модели (Large Language Models, LLM) продемонстрировали выдающиеся возможности обучения в контексте (In-Context Learning, ICL). В данном исследовании мы исследуем удивительное явление, связанное с ICL: LLM могут выполнять несколько вычислительно различных задач ICL одновременно в рамках одного вызова вывода, способность, которую мы называем "накладыванием задач". Мы предоставляем эмпирические доказательства этого явления в различных семействах и масштабах LLM и показываем, что это явление возникает даже в том случае, если модель обучена выполнять задачу в контексте поочередно. Мы предлагаем теоретические объяснения того, что эта способность хорошо вписывается в выразительные возможности трансформеров. Мы также исследуем, как LLM внутренне компонуют векторы задач во время наложения. Более того, мы показываем, что более крупные модели могут решать больше задач ICL параллельно и лучше калибровать распределение своих выходных данных. Наши результаты предлагают понимание скрытых возможностей LLM, дополнительно подтверждают перспективу "LLM как наложение симуляторов" и вызывают вопросы о механизмах, обеспечивающих одновременное выполнение задач.
English
Large Language Models (LLMs) have demonstrated remarkable in-context learning (ICL) capabilities. In this study, we explore a surprising phenomenon related to ICL: LLMs can perform multiple, computationally distinct ICL tasks simultaneously, during a single inference call, a capability we term "task superposition". We provide empirical evidence of this phenomenon across various LLM families and scales and show that this phenomenon emerges even if we train the model to in-context learn one task at a time. We offer theoretical explanations that this capability is well within the expressive power of transformers. We also explore how LLMs internally compose task vectors during superposition. Furthermore, we show that larger models can solve more ICL tasks in parallel, and better calibrate their output distribution. Our findings offer insights into the latent capabilities of LLMs, further substantiate the perspective of "LLMs as superposition of simulators", and raise questions about the mechanisms enabling simultaneous task execution.

Summary

AI-Generated Summary

PDF112November 16, 2024