ChatPaper.aiChatPaper

Tutto Ovunque Tutto Insieme: LLMs possono Apprendere in Contesto Molteplici Compiti in Sovrapposizione

Everything Everywhere All at Once: LLMs can In-Context Learn Multiple Tasks in Superposition

October 8, 2024
Autori: Zheyang Xiong, Ziyang Cai, John Cooper, Albert Ge, Vasilis Papageorgiou, Zack Sifakis, Angeliki Giannou, Ziqian Lin, Liu Yang, Saurabh Agarwal, Grigorios G Chrysos, Samet Oymak, Kangwook Lee, Dimitris Papailiopoulos
cs.AI

Abstract

I Large Language Models (LLM) hanno dimostrato notevoli capacità di apprendimento in contesto (ICL). In questo studio, esploriamo un fenomeno sorprendente legato all'ICL: i LLM possono eseguire contemporaneamente, durante una singola chiamata di inferenza, molteplici compiti ICL computazionalmente distinti, una capacità che definiamo "sovrapposizione di compiti". Forniamo prove empiriche di questo fenomeno attraverso varie famiglie e scale di LLM e mostriamo che questo fenomeno emerge anche se addestriamo il modello ad apprendere in contesto un compito alla volta. Offriamo spiegazioni teoriche che questa capacità rientra pienamente nella potenza espressiva dei trasformatori. Esploriamo anche come i LLM compongono internamente i vettori dei compiti durante la sovrapposizione. Inoltre, dimostriamo che modelli più grandi possono risolvere più compiti ICL in parallelo e calibrare meglio la distribuzione dei loro output. Le nostre scoperte offrono approfondimenti sulle capacità latenti dei LLM, sostengono ulteriormente la prospettiva dei "LLM come sovrapposizione di simulatori" e sollevano domande sui meccanismi che consentono l'esecuzione simultanea dei compiti.
English
Large Language Models (LLMs) have demonstrated remarkable in-context learning (ICL) capabilities. In this study, we explore a surprising phenomenon related to ICL: LLMs can perform multiple, computationally distinct ICL tasks simultaneously, during a single inference call, a capability we term "task superposition". We provide empirical evidence of this phenomenon across various LLM families and scales and show that this phenomenon emerges even if we train the model to in-context learn one task at a time. We offer theoretical explanations that this capability is well within the expressive power of transformers. We also explore how LLMs internally compose task vectors during superposition. Furthermore, we show that larger models can solve more ICL tasks in parallel, and better calibrate their output distribution. Our findings offer insights into the latent capabilities of LLMs, further substantiate the perspective of "LLMs as superposition of simulators", and raise questions about the mechanisms enabling simultaneous task execution.
PDF112November 16, 2024