ChatPaper.aiChatPaper

Experts voor Trainings Taken Opleiden via Retrieval-gebaseerde Distillatie

Training Task Experts through Retrieval Based Distillation

July 7, 2024
Auteurs: Jiaxin Ge, Xueying Jia, Vijay Viswanathan, Hongyin Luo, Graham Neubig
cs.AI

Samenvatting

Een van de meest betrouwbare manieren om inzetbare modellen te creëren voor gespecialiseerde taken is het verkrijgen van een voldoende hoeveelheid hoogwaardige, taakspecifieke data. Voor gespecialiseerde taken bestaan dergelijke datasets echter vaak niet. Bestaande methoden pakken dit aan door dergelijke data te genereren met behulp van grote taalmodellen (LLMs) en deze kennis vervolgens te destilleren in kleinere modellen. Deze methoden worden echter beperkt door de kwaliteit van de output van de LLMs en hebben de neiging repetitieve of incorrecte data te genereren. In dit werk presenteren we Retrieval Based Distillation (ReBase), een methode die eerst data ophaalt uit rijke online bronnen en deze vervolgens omzet in domeinspecifieke data. Deze methode vergroot de diversiteit van de data aanzienlijk. Bovendien genereert ReBase Chain-of-Thought redeneringen en destilleert het de redeneercapaciteit van LLMs. We testen onze methode op 4 benchmarks en de resultaten laten zien dat onze methode de prestaties aanzienlijk verbetert met tot wel 7,8% op SQuAD, 1,37% op MNLI en 1,94% op BigBench-Hard.
English
One of the most reliable ways to create deployable models for specialized tasks is to obtain an adequate amount of high-quality task-specific data. However, for specialized tasks, often such datasets do not exist. Existing methods address this by creating such data from large language models (LLMs) and then distilling such knowledge into smaller models. However, these methods are limited by the quality of the LLMs output, and tend to generate repetitive or incorrect data. In this work, we present Retrieval Based Distillation (ReBase), a method that first retrieves data from rich online sources and then transforms them into domain-specific data. This method greatly enhances data diversity. Moreover, ReBase generates Chain-of-Thought reasoning and distills the reasoning capacity of LLMs. We test our method on 4 benchmarks and results show that our method significantly improves performance by up to 7.8% on SQuAD, 1.37% on MNLI, and 1.94% on BigBench-Hard.
PDF101November 28, 2024