ChatPaper.aiChatPaper

Soyez comme un poisson rouge, ne mémorisez pas ! Atténuer la mémorisation dans les modèles de langage génératifs de grande taille

Be like a Goldfish, Don't Memorize! Mitigating Memorization in Generative LLMs

June 14, 2024
Auteurs: Abhimanyu Hans, Yuxin Wen, Neel Jain, John Kirchenbauer, Hamid Kazemi, Prajwal Singhania, Siddharth Singh, Gowthami Somepalli, Jonas Geiping, Abhinav Bhatele, Tom Goldstein
cs.AI

Résumé

Les grands modèles de langage peuvent mémoriser et répéter leurs données d'entraînement, ce qui pose des risques en matière de confidentialité et de droits d'auteur. Pour atténuer cette mémorisation, nous introduisons une modification subtile de l'objectif d'entraînement de prédiction du token suivant, que nous appelons la perte goldfish. Pendant l'entraînement, un sous-ensemble aléatoire de tokens est exclu du calcul de la perte. Ces tokens ignorés ne sont pas mémorisés par le modèle, ce qui empêche la reproduction textuelle d'une séquence complète de tokens provenant de l'ensemble d'entraînement. Nous menons des expériences approfondies en entraînant des modèles Llama-2 à l'échelle du milliard, à la fois pré-entraînés et entraînés à partir de zéro, et démontrons des réductions significatives de la mémorisation extractible avec un impact minimal, voire nul, sur les benchmarks en aval.
English
Large language models can memorize and repeat their training data, causing privacy and copyright risks. To mitigate memorization, we introduce a subtle modification to the next-token training objective that we call the goldfish loss. During training, a randomly sampled subset of tokens are excluded from the loss computation. These dropped tokens are not memorized by the model, which prevents verbatim reproduction of a complete chain of tokens from the training set. We run extensive experiments training billion-scale Llama-2 models, both pre-trained and trained from scratch, and demonstrate significant reductions in extractable memorization with little to no impact on downstream benchmarks.

Summary

AI-Generated Summary

PDF81December 6, 2024