Sii come un pesce rosso, non memorizzare! Mitigare la memorizzazione nei modelli linguistici generativi di grandi dimensioni
Be like a Goldfish, Don't Memorize! Mitigating Memorization in Generative LLMs
June 14, 2024
Autori: Abhimanyu Hans, Yuxin Wen, Neel Jain, John Kirchenbauer, Hamid Kazemi, Prajwal Singhania, Siddharth Singh, Gowthami Somepalli, Jonas Geiping, Abhinav Bhatele, Tom Goldstein
cs.AI
Abstract
I grandi modelli linguistici possono memorizzare e ripetere i loro dati di addestramento, causando rischi per la privacy e il copyright. Per mitigare la memorizzazione, introduciamo una sottile modifica all'obiettivo di addestramento del token successivo che chiamiamo goldfish loss. Durante l'addestramento, un sottoinsieme casuale di token viene escluso dal calcolo della loss. Questi token esclusi non vengono memorizzati dal modello, il che impedisce la riproduzione letterale di una catena completa di token dal set di addestramento. Eseguiamo ampi esperimenti addestrando modelli Llama-2 su scala miliardaria, sia pre-addestrati che addestrati da zero, e dimostriamo riduzioni significative nella memorizzazione estraibile con un impatto minimo o nullo sui benchmark a valle.
English
Large language models can memorize and repeat their training data, causing
privacy and copyright risks. To mitigate memorization, we introduce a subtle
modification to the next-token training objective that we call the goldfish
loss. During training, a randomly sampled subset of tokens are excluded from
the loss computation. These dropped tokens are not memorized by the model,
which prevents verbatim reproduction of a complete chain of tokens from the
training set. We run extensive experiments training billion-scale Llama-2
models, both pre-trained and trained from scratch, and demonstrate significant
reductions in extractable memorization with little to no impact on downstream
benchmarks.