ChatPaper.aiChatPaper

Selezione Efficiente dei Dati su Larga Scala tramite Distillazione dell'Influenza

Efficient Data Selection at Scale via Influence Distillation

May 25, 2025
Autori: Mahdi Nikdan, Vincent Cohen-Addad, Dan Alistarh, Vahab Mirrokni
cs.AI

Abstract

La selezione efficace dei dati è fondamentale per l'addestramento efficiente dei moderni Large Language Models (LLM). Questo articolo introduce Influence Distillation, un nuovo framework matematicamente giustificato per la selezione dei dati che utilizza informazioni di secondo ordine per ponderare in modo ottimale i campioni di addestramento. Distillando l'influenza di ciascun campione su una distribuzione target, il nostro metodo assegna pesi specifici per il modello che vengono utilizzati per selezionare i dati di addestramento per il fine-tuning degli LLM, guidandoli verso prestazioni solide nel dominio target. Deriviamo questi pesi ottimali sia per l'ottimizzatore Gradient Descent che per Adam. Per garantire scalabilità e ridurre i costi computazionali, proponiamo un'approssimazione basata su landmark: l'influenza viene calcolata con precisione per un piccolo sottoinsieme di campioni "landmark" e poi propagata efficientemente a tutti gli altri campioni per determinarne i pesi. Validiamo Influence Distillation applicandolo al tuning delle istruzioni sul dataset Tulu V2, mirando a una gamma di task tra cui GSM8k, SQuAD e MMLU, su diversi modelli delle famiglie Llama e Qwen. Gli esperimenti dimostrano che Influence Distillation eguaglia o supera le prestazioni state-of-the-art, raggiungendo una selezione fino a 3,5 volte più veloce.
English
Effective data selection is critical for efficient training of modern Large Language Models (LLMs). This paper introduces Influence Distillation, a novel, mathematically-justified framework for data selection that employs second-order information to optimally weight training samples. By distilling each sample's influence on a target distribution, our method assigns model-specific weights that are used to select training data for LLM fine-tuning, guiding it toward strong performance on the target domain. We derive these optimal weights for both Gradient Descent and Adam optimizers. To ensure scalability and reduce computational cost, we propose a landmark-based approximation: influence is precisely computed for a small subset of "landmark" samples and then efficiently propagated to all other samples to determine their weights. We validate Influence Distillation by applying it to instruction tuning on the Tulu V2 dataset, targeting a range of tasks including GSM8k, SQuAD, and MMLU, across several models from the Llama and Qwen families. Experiments show that Influence Distillation matches or outperforms state-of-the-art performance while achieving up to 3.5times faster selection.
PDF42May 29, 2025