Over de Betrouwbaarheid van Watermerken voor Grote Taalmodellen
On the Reliability of Watermarks for Large Language Models
June 7, 2023
Auteurs: John Kirchenbauer, Jonas Geiping, Yuxin Wen, Manli Shu, Khalid Saifullah, Kezhi Kong, Kasun Fernando, Aniruddha Saha, Micah Goldblum, Tom Goldstein
cs.AI
Samenvatting
Grote taalmodellen (LLMs) worden tegenwoordig in het dagelijks leven ingezet en zijn in staat om in het komende decennium grote hoeveelheden tekst te produceren. Machinaal gegenereerde tekst kan mensgeschreven tekst op internet verdringen en heeft het potentieel om voor kwaadaardige doeleinden te worden gebruikt, zoals spearphishing-aanvallen en social media-bots. Watermerken zijn een eenvoudige en effectieve strategie om dergelijke schade te beperken door het mogelijk te maken om LLM-gegenereerde tekst te detecteren en te documenteren. Toch blijft een cruciale vraag: Hoe betrouwbaar is watermerken in realistische omstandigheden in de praktijk? Daar kan gemerkte tekst worden gemengd met andere tekstbronnen, geparafraseerd door menselijke schrijvers of andere taalmodellen, en gebruikt worden voor toepassingen in een breed scala aan domeinen, zowel sociaal als technisch. In dit artikel verkennen we verschillende detectieschema's, kwantificeren we hun vermogen om watermerken te detecteren, en bepalen we hoeveel machinaal gegenereerde tekst in elk scenario moet worden waargenomen om het watermerk betrouwbaar te kunnen detecteren. We benadrukken vooral onze menselijke studie, waarin we de betrouwbaarheid van watermerken onderzoeken wanneer ze worden geconfronteerd met menselijke parafrasering. We vergelijken op watermerken gebaseerde detectie met andere detectiestrategieën en concluderen over het algemeen dat watermerken een betrouwbare oplossing zijn, vooral vanwege hun steekproefcomplexiteit - voor alle aanvallen die we overwegen, stapelt het bewijs van het watermerk zich op naarmate er meer voorbeelden worden gegeven, en wordt het watermerk uiteindelijk gedetecteerd.
English
Large language models (LLMs) are now deployed to everyday use and positioned
to produce large quantities of text in the coming decade. Machine-generated
text may displace human-written text on the internet and has the potential to
be used for malicious purposes, such as spearphishing attacks and social media
bots. Watermarking is a simple and effective strategy for mitigating such harms
by enabling the detection and documentation of LLM-generated text. Yet, a
crucial question remains: How reliable is watermarking in realistic settings in
the wild? There, watermarked text might be mixed with other text sources,
paraphrased by human writers or other language models, and used for
applications in a broad number of domains, both social and technical. In this
paper, we explore different detection schemes, quantify their power at
detecting watermarks, and determine how much machine-generated text needs to be
observed in each scenario to reliably detect the watermark. We especially
highlight our human study, where we investigate the reliability of watermarking
when faced with human paraphrasing. We compare watermark-based detection to
other detection strategies, finding overall that watermarking is a reliable
solution, especially because of its sample complexity - for all attacks we
consider, the watermark evidence compounds the more examples are given, and the
watermark is eventually detected.