ChatPaper.aiChatPaper

Символьная настройка улучшает обучение в контексте языковых моделей.

Symbol tuning improves in-context learning in language models

May 15, 2023
Авторы: Jerry Wei, Le Hou, Andrew Lampinen, Xiangning Chen, Da Huang, Yi Tay, Xinyun Chen, Yifeng Lu, Denny Zhou, Tengyu Ma, Quoc V. Le
cs.AI

Аннотация

Мы представляем метод символической тонкой настройки (symbol tuning) — дообучение языковых моделей на парах "вход-метка" в контексте, где естественно-языковые метки (например, "положительный/отрицательный отзыв") заменяются произвольными символами (например, "foo/bar"). Символическая тонкая настройка основывается на интуиции, что если модель не может использовать инструкции или естественно-языковые метки для понимания задачи, она должна научиться этому через изучение соответствий между входными данными и метками. Мы экспериментируем с символической тонкой настройкой на моделях Flan-PaLM с числом параметров до 540 миллиардов и наблюдаем преимущества в различных сценариях. Во-первых, символическая тонкая настройка повышает производительность на задачах обучения в контексте, которые модель ранее не видела, и делает модель значительно более устойчивой к недостаточно специфицированным запросам, таким как те, в которых отсутствуют инструкции или естественно-языковые метки. Во-вторых, модели, прошедшие символическую тонкую настройку, демонстрируют значительно лучшие результаты в задачах алгоритмического мышления, с улучшением до 18,2% на бенчмарке List Functions и до 15,3% на бенчмарке Simple Turing Concepts. Наконец, такие модели показывают значительные улучшения в следовании перевернутым меткам, представленным в контексте, что означает их повышенную способность использовать контекстную информацию для переопределения ранее усвоенных семантических знаний.
English
We present symbol tuning - finetuning language models on in-context input-label pairs where natural language labels (e.g., "positive/negative sentiment") are replaced with arbitrary symbols (e.g., "foo/bar"). Symbol tuning leverages the intuition that when a model cannot use instructions or natural language labels to figure out a task, it must instead do so by learning the input-label mappings. We experiment with symbol tuning across Flan-PaLM models up to 540B parameters and observe benefits across various settings. First, symbol tuning boosts performance on unseen in-context learning tasks and is much more robust to underspecified prompts, such as those without instructions or without natural language labels. Second, symbol-tuned models are much stronger at algorithmic reasoning tasks, with up to 18.2% better performance on the List Functions benchmark and up to 15.3% better performance on the Simple Turing Concepts benchmark. Finally, symbol-tuned models show large improvements in following flipped-labels presented in-context, meaning that they are more capable of using in-context information to override prior semantic knowledge.
PDF30December 15, 2024