ChatPaper.aiChatPaper

Sii come un pesce rosso, non memorizzare! Mitigare la memorizzazione nei modelli linguistici generativi di grandi dimensioni

Be like a Goldfish, Don't Memorize! Mitigating Memorization in Generative LLMs

June 14, 2024
Autori: Abhimanyu Hans, Yuxin Wen, Neel Jain, John Kirchenbauer, Hamid Kazemi, Prajwal Singhania, Siddharth Singh, Gowthami Somepalli, Jonas Geiping, Abhinav Bhatele, Tom Goldstein
cs.AI

Abstract

I grandi modelli linguistici possono memorizzare e ripetere i loro dati di addestramento, causando rischi per la privacy e il copyright. Per mitigare la memorizzazione, introduciamo una sottile modifica all'obiettivo di addestramento del token successivo che chiamiamo goldfish loss. Durante l'addestramento, un sottoinsieme casuale di token viene escluso dal calcolo della loss. Questi token esclusi non vengono memorizzati dal modello, il che impedisce la riproduzione letterale di una catena completa di token dal set di addestramento. Eseguiamo ampi esperimenti addestrando modelli Llama-2 su scala miliardaria, sia pre-addestrati che addestrati da zero, e dimostriamo riduzioni significative nella memorizzazione estraibile con un impatto minimo o nullo sui benchmark a valle.
English
Large language models can memorize and repeat their training data, causing privacy and copyright risks. To mitigate memorization, we introduce a subtle modification to the next-token training objective that we call the goldfish loss. During training, a randomly sampled subset of tokens are excluded from the loss computation. These dropped tokens are not memorized by the model, which prevents verbatim reproduction of a complete chain of tokens from the training set. We run extensive experiments training billion-scale Llama-2 models, both pre-trained and trained from scratch, and demonstrate significant reductions in extractable memorization with little to no impact on downstream benchmarks.
PDF81January 17, 2026