CausalLM ist nicht optimal für In-Context-Learning geeignet.
CausalLM is not optimal for in-context learning
August 14, 2023
Autoren: Nan Ding, Tomer Levinboim, Jialin Wu, Sebastian Goodman, Radu Soricut
cs.AI
Zusammenfassung
Aktuelle empirische Erkenntnisse zeigen, dass In-Context-Learning auf Basis von Transformer-Modellen besser abschneidet, wenn ein Prefix-Sprachmodell (prefixLM) verwendet wird, bei dem alle In-Context-Beispiele aufeinander zugreifen können, im Vergleich zu kausalen Sprachmodellen (causalLM), die autoregressive Aufmerksamkeit verwenden, die es In-Context-Beispielen verbietet, auf zukünftige Beispiele zuzugreifen. Obwohl dieses Ergebnis intuitiv ist, wird es aus theoretischer Sicht noch nicht vollständig verstanden. In diesem Artikel nehmen wir einen theoretischen Ansatz und analysieren das Konvergenzverhalten von prefixLM und causalLM unter einer bestimmten Parameterkonstruktion. Unsere Analyse zeigt, dass beide Modelltypen mit einer linearen Rate zu ihren stationären Punkten konvergieren, dass jedoch prefixLM zur optimalen Lösung der linearen Regression konvergiert, während die Konvergenzdynamik von causalLM der eines Online-Gradientenabstiegsalgorithmus folgt, der selbst bei unendlich wachsender Anzahl von Beispielen nicht garantiert optimal ist. Wir ergänzen unsere theoretischen Aussagen durch empirische Experimente mit synthetischen und realen Aufgaben sowie verschiedenen Arten von Transformer-Modellen. Unsere Experimente bestätigen, dass causalLM in allen Szenarien durchweg schlechter abschneidet als prefixLM.
English
Recent empirical evidence indicates that transformer based in-context
learning performs better when using a prefix language model (prefixLM), in
which in-context samples can all attend to each other, compared to causal
language models (causalLM), which use auto-regressive attention that prohibits
in-context samples to attend to future samples. While this result is intuitive,
it is not understood from a theoretical perspective. In this paper we take a
theoretical approach and analyze the convergence behavior of prefixLM and
causalLM under a certain parameter construction. Our analysis shows that both
LM types converge to their stationary points at a linear rate, but that while
prefixLM converges to the optimal solution of linear regression, causalLM
convergence dynamics follows that of an online gradient descent algorithm,
which is not guaranteed to be optimal even as the number of samples grows
infinitely. We supplement our theoretical claims with empirical experiments
over synthetic and real tasks and using various types of transformers. Our
experiments verify that causalLM consistently underperforms prefixLM in all
settings.