Rilevare i Dati di Pretraining nei Modelli Linguistici di Grande Dimensione
Detecting Pretraining Data from Large Language Models
October 25, 2023
Autori: Weijia Shi, Anirudh Ajith, Mengzhou Xia, Yangsibo Huang, Daogao Liu, Terra Blevins, Danqi Chen, Luke Zettlemoyer
cs.AI
Abstract
Sebbene i modelli linguistici su larga scala (LLM) siano ampiamente utilizzati, i dati utilizzati per addestrarli raramente vengono divulgati. Considerando l'incredibile scala di questi dati, che possono raggiungere migliaia di miliardi di token, è quasi certo che includano testi potenzialmente problematici come materiali protetti da copyright, informazioni personali identificabili e dati di test per benchmark di riferimento ampiamente riportati. Tuttavia, attualmente non abbiamo modo di sapere quali di questi tipi di dati siano inclusi o in quali proporzioni. In questo articolo, studiamo il problema del rilevamento dei dati di pre-addestramento: dato un frammento di testo e l'accesso in modalità "black-box" a un LLM senza conoscere i dati di pre-addestramento, possiamo determinare se il modello è stato addestrato sul testo fornito? Per facilitare questo studio, introduciamo un benchmark dinamico chiamato WIKIMIA che utilizza dati creati prima e dopo l'addestramento del modello per supportare il rilevamento con verità di riferimento. Introduciamo anche un nuovo metodo di rilevamento, Min-K% Prob, basato su una semplice ipotesi: un esempio non visto probabilmente contiene alcune parole anomale con probabilità basse secondo l'LLM, mentre un esempio visto ha meno probabilità di contenere parole con probabilità così basse. Min-K% Prob può essere applicato senza alcuna conoscenza del corpus di pre-addestramento o di ulteriori addestramenti, differenziandosi dai metodi di rilevamento precedenti che richiedono l'addestramento di un modello di riferimento su dati simili a quelli di pre-addestramento. Inoltre, i nostri esperimenti dimostrano che Min-K% Prob ottiene un miglioramento del 7,4% su WIKIMIA rispetto a questi metodi precedenti. Applichiamo Min-K% Prob a due scenari reali: il rilevamento di libri protetti da copyright e il rilevamento di esempi contaminati nei task downstream, riscontrando che si tratta di una soluzione costantemente efficace.
English
Although large language models (LLMs) are widely deployed, the data used to
train them is rarely disclosed. Given the incredible scale of this data, up to
trillions of tokens, it is all but certain that it includes potentially
problematic text such as copyrighted materials, personally identifiable
information, and test data for widely reported reference benchmarks. However,
we currently have no way to know which data of these types is included or in
what proportions. In this paper, we study the pretraining data detection
problem: given a piece of text and black-box access to an LLM without knowing
the pretraining data, can we determine if the model was trained on the provided
text? To facilitate this study, we introduce a dynamic benchmark WIKIMIA that
uses data created before and after model training to support gold truth
detection. We also introduce a new detection method Min-K% Prob based on a
simple hypothesis: an unseen example is likely to contain a few outlier words
with low probabilities under the LLM, while a seen example is less likely to
have words with such low probabilities. Min-K% Prob can be applied without any
knowledge about the pretraining corpus or any additional training, departing
from previous detection methods that require training a reference model on data
that is similar to the pretraining data. Moreover, our experiments demonstrate
that Min-K% Prob achieves a 7.4% improvement on WIKIMIA over these previous
methods. We apply Min-K% Prob to two real-world scenarios, copyrighted book
detection, and contaminated downstream example detection, and find it a
consistently effective solution.