ChatPaper.aiChatPaper

Symbol tuning verbetert in-context leren in taalmodelen.

Symbol tuning improves in-context learning in language models

May 15, 2023
Auteurs: Jerry Wei, Le Hou, Andrew Lampinen, Xiangning Chen, Da Huang, Yi Tay, Xinyun Chen, Yifeng Lu, Denny Zhou, Tengyu Ma, Quoc V. Le
cs.AI

Samenvatting

We presenteren symbol tuning - het finetunen van taalmodelen op in-context invoer-label paren waarbij natuurlijke taal labels (bijvoorbeeld "positieve/negatieve sentiment") worden vervangen door willekeurige symbolen (bijvoorbeeld "foo/bar"). Symbol tuning maakt gebruik van de intuïtie dat wanneer een model instructies of natuurlijke taal labels niet kan gebruiken om een taak te begrijpen, het in plaats daarvan de invoer-label mapping moet leren. We experimenteren met symbol tuning op Flan-PaLM modellen tot 540B parameters en observeren voordelen in verschillende settings. Ten eerste verbetert symbol tuning de prestaties op onbekende in-context leertaken en is het veel robuuster tegen onvolledige prompts, zoals die zonder instructies of zonder natuurlijke taal labels. Ten tweede zijn symbol-getunede modellen veel sterker in algoritmische redeneertaken, met tot 18,2% betere prestaties op de List Functions benchmark en tot 15,3% betere prestaties op de Simple Turing Concepts benchmark. Tot slot laten symbol-getunede modellen grote verbeteringen zien in het volgen van omgekeerde labels die in-context worden gepresenteerd, wat betekent dat ze beter in staat zijn om in-context informatie te gebruiken om eerder opgedane semantische kennis te overschrijven.
English
We present symbol tuning - finetuning language models on in-context input-label pairs where natural language labels (e.g., "positive/negative sentiment") are replaced with arbitrary symbols (e.g., "foo/bar"). Symbol tuning leverages the intuition that when a model cannot use instructions or natural language labels to figure out a task, it must instead do so by learning the input-label mappings. We experiment with symbol tuning across Flan-PaLM models up to 540B parameters and observe benefits across various settings. First, symbol tuning boosts performance on unseen in-context learning tasks and is much more robust to underspecified prompts, such as those without instructions or without natural language labels. Second, symbol-tuned models are much stronger at algorithmic reasoning tasks, with up to 18.2% better performance on the List Functions benchmark and up to 15.3% better performance on the Simple Turing Concepts benchmark. Finally, symbol-tuned models show large improvements in following flipped-labels presented in-context, meaning that they are more capable of using in-context information to override prior semantic knowledge.
PDF30December 15, 2024