ChatPaper.aiChatPaper

Эмулятор для тонкой настройки больших языковых моделей с использованием малых языковых моделей

An Emulator for Fine-Tuning Large Language Models using Small Language Models

October 19, 2023
Авторы: Eric Mitchell, Rafael Rafailov, Archit Sharma, Chelsea Finn, Christopher D. Manning
cs.AI

Аннотация

Широко используемые языковые модели (LM) обычно создаются путем масштабирования двухэтапного процесса обучения: этапа предварительного обучения, который использует очень большой и разнообразный набор текстовых данных, и этапа тонкой настройки (иногда называемого "согласованием"), который использует целевые примеры или другие спецификации желаемого поведения. Хотя предполагается, что знания и навыки формируются на этапе предварительного обучения, а тонкая настройка в основном фильтрует эти знания и навыки, эта интуиция не была тщательно проверена. Чтобы помочь в этом, мы представляем новый метод разделения знаний и навыков, полученных на этих двух этапах, что позволяет напрямую ответить на вопрос: "Что произойдет, если мы объединим знания, полученные большой моделью на этапе предварительного обучения, с знаниями, полученными маленькой моделью на этапе тонкой настройки (или наоборот)?" Используя основанную на RL (обучении с подкреплением) структуру, разработанную на основе последних достижений в обучении с учетом человеческих предпочтений, мы вводим эмулированную тонкую настройку (Emulated Fine-Tuning, EFT) — принципиальный и практический метод выборки из распределения, которое аппроксимирует (или "эмулирует") результат предварительного обучения и тонкой настройки на разных масштабах. Наши эксперименты с EFT показывают, что масштабирование тонкой настройки обычно улучшает полезность, а масштабирование предварительного обучения — достоверность. Помимо разделения масштаба, мы показываем, что EFT позволяет настраивать конкурирующие поведенческие характеристики, такие как полезность и безопасность, во время тестирования без дополнительного обучения. Наконец, частный случай эмулированной тонкой настройки, который мы называем масштабированием LM, позволяет избежать ресурсоемкой тонкой настройки больших предварительно обученных моделей, объединяя их с маленькими тонко настроенными моделями, по сути эмулируя результат тонкой настройки большой предварительно обученной модели. Масштабирование последовательно улучшает полезность и достоверность моделей, следующих инструкциям, в семействах Llama, Llama-2 и Falcon, без дополнительных гиперпараметров или обучения.
English
Widely used language models (LMs) are typically built by scaling up a two-stage training pipeline: a pre-training stage that uses a very large, diverse dataset of text and a fine-tuning (sometimes, 'alignment') stage that uses targeted examples or other specifications of desired behaviors. While it has been hypothesized that knowledge and skills come from pre-training, and fine-tuning mostly filters this knowledge and skillset, this intuition has not been extensively tested. To aid in doing so, we introduce a novel technique for decoupling the knowledge and skills gained in these two stages, enabling a direct answer to the question, "What would happen if we combined the knowledge learned by a large model during pre-training with the knowledge learned by a small model during fine-tuning (or vice versa)?" Using an RL-based framework derived from recent developments in learning from human preferences, we introduce emulated fine-tuning (EFT), a principled and practical method for sampling from a distribution that approximates (or 'emulates') the result of pre-training and fine-tuning at different scales. Our experiments with EFT show that scaling up fine-tuning tends to improve helpfulness, while scaling up pre-training tends to improve factuality. Beyond decoupling scale, we show that EFT enables test-time adjustment of competing behavioral traits like helpfulness and harmlessness without additional training. Finally, a special case of emulated fine-tuning, which we call LM up-scaling, avoids resource-intensive fine-tuning of large pre-trained models by ensembling them with small fine-tuned models, essentially emulating the result of fine-tuning the large pre-trained model. Up-scaling consistently improves helpfulness and factuality of instruction-following models in the Llama, Llama-2, and Falcon families, without additional hyperparameters or training.
PDF131December 15, 2024