Het detecteren van vooraf getrainde gegevens uit grote taalmodelle
Detecting Pretraining Data from Large Language Models
October 25, 2023
Auteurs: Weijia Shi, Anirudh Ajith, Mengzhou Xia, Yangsibo Huang, Daogao Liu, Terra Blevins, Danqi Chen, Luke Zettlemoyer
cs.AI
Samenvatting
Hoewel grote taalmodellen (LLM's) op grote schaal worden ingezet, worden de gegevens die gebruikt worden om ze te trainen zelden vrijgegeven. Gezien de ongelooflijke omvang van deze gegevens, tot wel biljoenen tokens, is het vrijwel zeker dat deze potentieel problematische tekst bevatten, zoals auteursrechtelijk beschermd materiaal, persoonlijk identificeerbare informatie en testgegevens voor veelgerapporteerde referentiebenchmarks. We hebben echter momenteel geen manier om te weten welke gegevens van deze typen zijn opgenomen of in welke verhoudingen. In dit artikel bestuderen we het probleem van het detecteren van pretrainingsgegevens: gegeven een stuk tekst en black-box toegang tot een LLM zonder kennis van de pretrainingsgegevens, kunnen we dan bepalen of het model getraind is op de aangeboden tekst? Om deze studie te faciliteren, introduceren we een dynamische benchmark WIKIMIA die gegevens gebruikt die voor en na de modeltraining zijn gemaakt om gouden waarheidsdetectie te ondersteunen. We introduceren ook een nieuwe detectiemethode Min-K% Prob, gebaseerd op een eenvoudige hypothese: een onbekend voorbeeld zal waarschijnlijk een paar uitschieters bevatten met lage kansen onder het LLM, terwijl een bekend voorbeeld minder waarschijnlijk woorden met zulke lage kansen zal bevatten. Min-K% Prob kan worden toegepast zonder enige kennis over het pretrainingscorpus of aanvullende training, wat afwijkt van eerdere detectiemethoden die training vereisen van een referentiemodel op gegevens die vergelijkbaar zijn met de pretrainingsgegevens. Bovendien tonen onze experimenten aan dat Min-K% Prob een verbetering van 7,4% op WIKIMIA bereikt ten opzichte van deze eerdere methoden. We passen Min-K% Prob toe op twee real-world scenario's, detectie van auteursrechtelijk beschermde boeken en detectie van verontreinigde downstream-voorbeelden, en vinden het een consistent effectieve oplossing.
English
Although large language models (LLMs) are widely deployed, the data used to
train them is rarely disclosed. Given the incredible scale of this data, up to
trillions of tokens, it is all but certain that it includes potentially
problematic text such as copyrighted materials, personally identifiable
information, and test data for widely reported reference benchmarks. However,
we currently have no way to know which data of these types is included or in
what proportions. In this paper, we study the pretraining data detection
problem: given a piece of text and black-box access to an LLM without knowing
the pretraining data, can we determine if the model was trained on the provided
text? To facilitate this study, we introduce a dynamic benchmark WIKIMIA that
uses data created before and after model training to support gold truth
detection. We also introduce a new detection method Min-K% Prob based on a
simple hypothesis: an unseen example is likely to contain a few outlier words
with low probabilities under the LLM, while a seen example is less likely to
have words with such low probabilities. Min-K% Prob can be applied without any
knowledge about the pretraining corpus or any additional training, departing
from previous detection methods that require training a reference model on data
that is similar to the pretraining data. Moreover, our experiments demonstrate
that Min-K% Prob achieves a 7.4% improvement on WIKIMIA over these previous
methods. We apply Min-K% Prob to two real-world scenarios, copyrighted book
detection, and contaminated downstream example detection, and find it a
consistently effective solution.