Het Landschap van Memorisatie in LLM's: Mechanismen, Meting en Mitigatie
The Landscape of Memorization in LLMs: Mechanisms, Measurement, and Mitigation
July 8, 2025
Auteurs: Alexander Xiong, Xuandong Zhao, Aneesh Pappu, Dawn Song
cs.AI
Samenvatting
Grote Taalmodellen (LLM's) hebben opmerkelijke capaciteiten getoond voor een breed scala aan taken, maar ze vertonen ook een neiging tot het onthouden van hun trainingsdata. Dit fenomeen roept kritische vragen op over modelgedrag, privacyrisico's en de grens tussen leren en onthouden. In dit artikel worden recente studies samengevat en wordt het landschap van onthouding onderzocht, evenals de factoren die hierop van invloed zijn en methoden voor detectie en beperking ervan. We verkennen belangrijke drijvende krachten, waaronder duplicatie van trainingsdata, trainingsdynamiek en fine-tuningprocedures die dataonthouding beïnvloeden. Daarnaast onderzoeken we methodologieën zoals prefix-gebaseerde extractie, lidmaatschapsinferentie en adversariële prompting, waarbij we hun effectiviteit beoordelen in het detecteren en meten van onthouden content. Naast technische analyse verkennen we ook de bredere implicaties van onthouding, waaronder de juridische en ethische gevolgen. Tot slot bespreken we beperkingsstrategieën, zoals datareiniging, differentiële privacy en post-training 'unlearning', waarbij we openstaande uitdagingen belichten in het vinden van een balans tussen het minimaliseren van schadelijke onthouding en het behoud van nut. Dit artikel biedt een uitgebreid overzicht van de huidige stand van onderzoek naar onthouding in LLM's, zowel op technisch, privacy- als prestatievlak, en identificeert kritische richtingen voor toekomstig werk.
English
Large Language Models (LLMs) have demonstrated remarkable capabilities across
a wide range of tasks, yet they also exhibit memorization of their training
data. This phenomenon raises critical questions about model behavior, privacy
risks, and the boundary between learning and memorization. Addressing these
concerns, this paper synthesizes recent studies and investigates the landscape
of memorization, the factors influencing it, and methods for its detection and
mitigation. We explore key drivers, including training data duplication,
training dynamics, and fine-tuning procedures that influence data memorization.
In addition, we examine methodologies such as prefix-based extraction,
membership inference, and adversarial prompting, assessing their effectiveness
in detecting and measuring memorized content. Beyond technical analysis, we
also explore the broader implications of memorization, including the legal and
ethical implications. Finally, we discuss mitigation strategies, including data
cleaning, differential privacy, and post-training unlearning, while
highlighting open challenges in balancing the minimization of harmful
memorization with utility. This paper provides a comprehensive overview of the
current state of research on LLM memorization across technical, privacy, and
performance dimensions, identifying critical directions for future work.