ChatPaper.aiChatPaper

Le strategie di apprendimento in contesto emergono razionalmente

In-Context Learning Strategies Emerge Rationally

June 21, 2025
Autori: Daniel Wurgaft, Ekdeep Singh Lubana, Core Francisco Park, Hidenori Tanaka, Gautam Reddy, Noah D. Goodman
cs.AI

Abstract

Recenti lavori che analizzano l'apprendimento in contesto (ICL) hanno identificato un ampio insieme di strategie che descrivono il comportamento del modello in diverse condizioni sperimentali. Il nostro obiettivo è unificare questi risultati chiedendoci perché un modello apprenda in primo luogo queste strategie disparate. Nello specifico, partiamo dall'osservazione che, quando addestrato per apprendere una miscela di compiti, come è comune nella letteratura, le strategie apprese da un modello per eseguire l'ICL possono essere catturate da una famiglia di predittori bayesiani: un predittore memorizzante, che assume un prior discreto sull'insieme di compiti visti, e un predittore generalizzante, in cui il prior corrisponde alla distribuzione sottostante dei compiti. Adottando la lente normativa dell'analisi razionale, in cui il comportamento di un apprendista è spiegato come un adattamento ottimale ai dati dati i vincoli computazionali, sviluppiamo un framework bayesiano gerarchico che predice quasi perfettamente le previsioni del prossimo token dei Transformer durante l'addestramento — senza assumere l'accesso ai suoi pesi. In questo framework, il pre-addestramento è visto come un processo di aggiornamento della probabilità a posteriori di diverse strategie, e il comportamento al momento dell'inferenza come una media ponderata a posteriori sulle previsioni di queste strategie. Il nostro framework si basa su ipotesi comuni riguardanti le dinamiche di apprendimento delle reti neurali, che rendono esplicito un compromesso tra perdita e complessità tra le strategie candidate: oltre a quanto bene una strategia spieghi i dati, la preferenza di un modello nell'implementare una strategia è dettata dalla sua complessità. Questo aiuta a spiegare fenomeni noti dell'ICL, offrendo al contempo nuove previsioni: ad esempio, mostriamo una tendenza superlineare nella scala temporale per la transizione dalla generalizzazione alla memorizzazione all'aumentare della diversità dei compiti. Nel complesso, il nostro lavoro avanza una spiegazione e una previsione dell'ICL basata su compromessi tra perdita e complessità delle strategie.
English
Recent work analyzing in-context learning (ICL) has identified a broad set of strategies that describe model behavior in different experimental conditions. We aim to unify these findings by asking why a model learns these disparate strategies in the first place. Specifically, we start with the observation that when trained to learn a mixture of tasks, as is popular in the literature, the strategies learned by a model for performing ICL can be captured by a family of Bayesian predictors: a memorizing predictor, which assumes a discrete prior on the set of seen tasks, and a generalizing predictor, where the prior matches the underlying task distribution. Adopting the normative lens of rational analysis, where a learner's behavior is explained as an optimal adaptation to data given computational constraints, we develop a hierarchical Bayesian framework that almost perfectly predicts Transformer next-token predictions throughout training -- without assuming access to its weights. Under this framework, pretraining is viewed as a process of updating the posterior probability of different strategies, and inference-time behavior as a posterior-weighted average over these strategies' predictions. Our framework draws on common assumptions about neural network learning dynamics, which make explicit a tradeoff between loss and complexity among candidate strategies: beyond how well it explains the data, a model's preference towards implementing a strategy is dictated by its complexity. This helps explain well-known ICL phenomena, while offering novel predictions: e.g., we show a superlinear trend in the timescale for transitioning from generalization to memorization as task diversity increases. Overall, our work advances an explanatory and predictive account of ICL grounded in tradeoffs between strategy loss and complexity.
PDF81June 30, 2025