ChatPaper.aiChatPaper

Sé como un pez dorado, ¡no memorices! Mitigando la memorización en modelos de lenguaje generativos de gran escala.

Be like a Goldfish, Don't Memorize! Mitigating Memorization in Generative LLMs

June 14, 2024
Autores: Abhimanyu Hans, Yuxin Wen, Neel Jain, John Kirchenbauer, Hamid Kazemi, Prajwal Singhania, Siddharth Singh, Gowthami Somepalli, Jonas Geiping, Abhinav Bhatele, Tom Goldstein
cs.AI

Resumen

Los modelos de lenguaje de gran escala pueden memorizar y repetir sus datos de entrenamiento, lo que genera riesgos de privacidad y derechos de autor. Para mitigar la memorización, introducimos una modificación sutil al objetivo de entrenamiento de predicción del siguiente token, que denominamos pérdida goldfish. Durante el entrenamiento, un subconjunto aleatorio de tokens se excluye del cálculo de la pérdida. Estos tokens descartados no son memorizados por el modelo, lo que evita la reproducción textual de una secuencia completa de tokens del conjunto de entrenamiento. Realizamos extensos experimentos entrenando modelos Llama-2 a escala de miles de millones, tanto preentrenados como entrenados desde cero, y demostramos reducciones significativas en la memorización extraíble con un impacto mínimo o nulo en los benchmarks posteriores.
English
Large language models can memorize and repeat their training data, causing privacy and copyright risks. To mitigate memorization, we introduce a subtle modification to the next-token training objective that we call the goldfish loss. During training, a randomly sampled subset of tokens are excluded from the loss computation. These dropped tokens are not memorized by the model, which prevents verbatim reproduction of a complete chain of tokens from the training set. We run extensive experiments training billion-scale Llama-2 models, both pre-trained and trained from scratch, and demonstrate significant reductions in extractable memorization with little to no impact on downstream benchmarks.

Summary

AI-Generated Summary

PDF81December 6, 2024