CausalLM no es óptimo para el aprendizaje en contexto.
CausalLM is not optimal for in-context learning
August 14, 2023
Autores: Nan Ding, Tomer Levinboim, Jialin Wu, Sebastian Goodman, Radu Soricut
cs.AI
Resumen
Evidencia empírica reciente indica que el aprendizaje en contexto basado en transformadores funciona mejor cuando se utiliza un modelo de lenguaje con prefijo (prefixLM), en el cual las muestras en contexto pueden atenderse mutuamente, en comparación con los modelos de lenguaje causales (causalLM), que utilizan atención auto-regresiva que impide que las muestras en contexto atiendan a muestras futuras. Si bien este resultado es intuitivo, no se comprende desde una perspectiva teórica. En este artículo adoptamos un enfoque teórico y analizamos el comportamiento de convergencia de prefixLM y causalLM bajo una construcción específica de parámetros. Nuestro análisis muestra que ambos tipos de modelos convergen a sus puntos estacionarios a una tasa lineal, pero mientras que prefixLM converge a la solución óptima de la regresión lineal, la dinámica de convergencia de causalLM sigue la de un algoritmo de descenso de gradiente en línea, el cual no está garantizado que sea óptimo incluso cuando el número de muestras crece infinitamente. Complementamos nuestras afirmaciones teóricas con experimentos empíricos sobre tareas sintéticas y reales utilizando varios tipos de transformadores. Nuestros experimentos verifican que causalLM consistentemente tiene un rendimiento inferior al de prefixLM en todos los escenarios.
English
Recent empirical evidence indicates that transformer based in-context
learning performs better when using a prefix language model (prefixLM), in
which in-context samples can all attend to each other, compared to causal
language models (causalLM), which use auto-regressive attention that prohibits
in-context samples to attend to future samples. While this result is intuitive,
it is not understood from a theoretical perspective. In this paper we take a
theoretical approach and analyze the convergence behavior of prefixLM and
causalLM under a certain parameter construction. Our analysis shows that both
LM types converge to their stationary points at a linear rate, but that while
prefixLM converges to the optimal solution of linear regression, causalLM
convergence dynamics follows that of an online gradient descent algorithm,
which is not guaranteed to be optimal even as the number of samples grows
infinitely. We supplement our theoretical claims with empirical experiments
over synthetic and real tasks and using various types of transformers. Our
experiments verify that causalLM consistently underperforms prefixLM in all
settings.