ChatPaper.aiChatPaper

Schulung von Aufgabenspezialisten durch distillationsbasiertes Retrieval-Training.

Training Task Experts through Retrieval Based Distillation

July 7, 2024
Autoren: Jiaxin Ge, Xueying Jia, Vijay Viswanathan, Hongyin Luo, Graham Neubig
cs.AI

Zusammenfassung

Eine der zuverlässigsten Methoden zur Erstellung einsatzfähiger Modelle für spezialisierte Aufgaben besteht darin, eine ausreichende Menge an hochwertigen, aufgabenbezogenen Daten zu erhalten. Allerdings existieren für spezialisierte Aufgaben oft keine solchen Datensätze. Bestehende Methoden adressieren dieses Problem, indem sie solche Daten aus großen Sprachmodellen (LLMs) erstellen und dieses Wissen dann in kleinere Modelle destillieren. Diese Methoden sind jedoch durch die Qualität der Ausgabe der LLMs begrenzt und neigen dazu, repetitive oder inkorrekte Daten zu generieren. In dieser Arbeit stellen wir Retrieval Based Distillation (ReBase) vor, eine Methode, die zunächst Daten aus reichhaltigen Online-Quellen abruft und diese dann in domänenspezifische Daten umwandelt. Diese Methode verbessert die Datenvielfalt erheblich. Darüber hinaus generiert ReBase Chain-of-Thought-Argumentation und destilliert die Argumentationsfähigkeit der LLMs. Wir testen unsere Methode an 4 Benchmarks und die Ergebnisse zeigen, dass unsere Methode die Leistung signifikant um bis zu 7,8% bei SQuAD, 1,37% bei MNLI und 1,94% bei BigBench-Hard verbessert.
English
One of the most reliable ways to create deployable models for specialized tasks is to obtain an adequate amount of high-quality task-specific data. However, for specialized tasks, often such datasets do not exist. Existing methods address this by creating such data from large language models (LLMs) and then distilling such knowledge into smaller models. However, these methods are limited by the quality of the LLMs output, and tend to generate repetitive or incorrect data. In this work, we present Retrieval Based Distillation (ReBase), a method that first retrieves data from rich online sources and then transforms them into domain-specific data. This method greatly enhances data diversity. Moreover, ReBase generates Chain-of-Thought reasoning and distills the reasoning capacity of LLMs. We test our method on 4 benchmarks and results show that our method significantly improves performance by up to 7.8% on SQuAD, 1.37% on MNLI, and 1.94% on BigBench-Hard.

Summary

AI-Generated Summary

PDF101November 28, 2024