ChatPaper.aiChatPaper

Verwirrt von Verwirrung: Datenbereinigung basierend auf Verwirrung mit kleinen Referenzmodellen

Perplexed by Perplexity: Perplexity-Based Data Pruning With Small Reference Models

May 30, 2024
Autoren: Zachary Ankner, Cody Blakeney, Kartik Sreenivasan, Max Marion, Matthew L. Leavitt, Mansheej Paul
cs.AI

Zusammenfassung

In dieser Arbeit untersuchen wir, ob kleine Sprachmodelle hochwertige Teilmengen von umfangreichen Textdatensätzen bestimmen können, die die Leistung größerer Sprachmodelle verbessern. Während bisherige Arbeiten gezeigt haben, dass das Beschneiden basierend auf der Perplexität eines größeren Modells hochwertige Daten liefern kann, untersuchen wir, ob kleinere Modelle für ein Perplexitäts-basiertes Beschneiden verwendet werden können und wie das Beschneiden durch die Domänenzusammensetzung der zu beschneidenden Daten beeinflusst wird. Wir zeigen, dass für mehrere Datensatzzusammensetzungen ein Perplexitäts-basiertes Beschneiden von Vortrainingsdaten die Leistung bei nachgelagerten Aufgaben signifikant verbessern kann: Das Beschneiden basierend auf Perplexitäten, berechnet mit einem Modell von 125 Millionen Parametern, verbessert die durchschnittliche Leistung bei nachgelagerten Aufgaben eines Modells mit 3 Milliarden Parametern um bis zu 2,04 und erreicht eine Reduzierung der Vortrainingsschritte um bis zu 1,45-fach, um eine vergleichbare Ausgangsleistung zu erreichen. Darüber hinaus zeigen wir, dass ein solches Perplexitäts-basiertes Datenbeschneiden auch Leistungsgewinne bei übertrainierten und datenbeschränkten Regimen bringt.
English
In this work, we investigate whether small language models can determine high-quality subsets of large-scale text datasets that improve the performance of larger language models. While existing work has shown that pruning based on the perplexity of a larger model can yield high-quality data, we investigate whether smaller models can be used for perplexity-based pruning and how pruning is affected by the domain composition of the data being pruned. We demonstrate that for multiple dataset compositions, perplexity-based pruning of pretraining data can significantly improve downstream task performance: pruning based on perplexities computed with a 125 million parameter model improves the average performance on downstream tasks of a 3 billion parameter model by up to 2.04 and achieves up to a 1.45times reduction in pretraining steps to reach commensurate baseline performance. Furthermore, we demonstrate that such perplexity-based data pruning also yields downstream performance gains in the over-trained and data-constrained regimes.

Summary

AI-Generated Summary

PDF241December 12, 2024