ChatPaper.aiChatPaper

El ajuste simbólico mejora el aprendizaje en contexto en los modelos de lenguaje.

Symbol tuning improves in-context learning in language models

May 15, 2023
Autores: Jerry Wei, Le Hou, Andrew Lampinen, Xiangning Chen, Da Huang, Yi Tay, Xinyun Chen, Yifeng Lu, Denny Zhou, Tengyu Ma, Quoc V. Le
cs.AI

Resumen

Presentamos el ajuste simbólico (symbol tuning): el ajuste fino de modelos de lenguaje en pares de entrada-etiqueta en contexto, donde las etiquetas en lenguaje natural (por ejemplo, "sentimiento positivo/negativo") se reemplazan con símbolos arbitrarios (por ejemplo, "foo/bar"). El ajuste simbólico aprovecha la intuición de que, cuando un modelo no puede utilizar instrucciones o etiquetas en lenguaje natural para comprender una tarea, debe aprender las correspondencias entre entradas y etiquetas. Experimentamos con el ajuste simbólico en modelos Flan-PaLM de hasta 540 mil millones de parámetros y observamos beneficios en diversos escenarios. En primer lugar, el ajuste simbólico mejora el rendimiento en tareas de aprendizaje en contexto no vistas y es mucho más robusto ante indicaciones poco especificadas, como aquellas sin instrucciones o sin etiquetas en lenguaje natural. En segundo lugar, los modelos ajustados simbólicamente son mucho más fuertes en tareas de razonamiento algorítmico, con mejoras de hasta un 18,2 % en el benchmark List Functions y hasta un 15,3 % en el benchmark Simple Turing Concepts. Finalmente, los modelos ajustados simbólicamente muestran grandes mejoras en la capacidad de seguir etiquetas invertidas presentadas en contexto, lo que significa que son más capaces de utilizar información en contexto para anular conocimientos semánticos previos.
English
We present symbol tuning - finetuning language models on in-context input-label pairs where natural language labels (e.g., "positive/negative sentiment") are replaced with arbitrary symbols (e.g., "foo/bar"). Symbol tuning leverages the intuition that when a model cannot use instructions or natural language labels to figure out a task, it must instead do so by learning the input-label mappings. We experiment with symbol tuning across Flan-PaLM models up to 540B parameters and observe benefits across various settings. First, symbol tuning boosts performance on unseen in-context learning tasks and is much more robust to underspecified prompts, such as those without instructions or without natural language labels. Second, symbol-tuned models are much stronger at algorithmic reasoning tasks, with up to 18.2% better performance on the List Functions benchmark and up to 15.3% better performance on the Simple Turing Concepts benchmark. Finally, symbol-tuned models show large improvements in following flipped-labels presented in-context, meaning that they are more capable of using in-context information to override prior semantic knowledge.
PDF30December 15, 2024