ChatPaper.aiChatPaper

Gecertificeerde beperking van het ergste geval van auteursrechtinbreuk door LLM's

Certified Mitigation of Worst-Case LLM Copyright Infringement

April 22, 2025
Auteurs: Jingyu Zhang, Jiacan Yu, Marc Marone, Benjamin Van Durme, Daniel Khashabi
cs.AI

Samenvatting

De blootstelling van grote taalmodellen (LLMs) aan auteursrechtelijk beschermd materiaal tijdens de voorafgaande training roept zorgen op over onbedoelde inbreuk op auteursrechten na implementatie. Dit heeft geleid tot de ontwikkeling van "copyright takedown"-methoden, benaderingen na de training die gericht zijn op het voorkomen dat modellen inhoud genereren die sterk lijkt op auteursrechtelijk beschermd materiaal. Hoewel de huidige mitigatiebenaderingen enigszins effectief zijn voor gemiddelde risico's, tonen we aan dat ze de ergst denkbare auteursrechtenrisico's over het hoofd zien, die blijken uit het bestaan van lange, letterlijke citaten uit auteursrechtelijk beschermde bronnen. We stellen BloomScrub voor, een opmerkelijk eenvoudige maar zeer effectieve benadering tijdens de inferentie die gecertificeerde verwijdering van auteursrechtelijk beschermd materiaal biedt. Onze methode combineert herhaaldelijk citatendetectie met herschrijftechnieken om mogelijk inbreukmakende segmenten te transformeren. Door gebruik te maken van efficiënte gegevensschetsen (Bloom-filters), maakt onze aanpak schaalbare screening op auteursrechten mogelijk, zelfs voor grootschalige, real-world corpora. Wanneer citaten die een bepaalde lengtedrempel overschrijden niet kunnen worden verwijderd, kan het systeem ervoor kiezen om niet te reageren, wat gecertificeerde risicovermindering biedt. Experimentele resultaten tonen aan dat BloomScrub het risico op inbreuk vermindert, de bruikbaarheid behoudt en zich aanpast aan verschillende niveaus van handhavingsstrengheid met adaptieve onthouding. Onze resultaten suggereren dat lichtgewicht methoden tijdens de inferentie verrassend effectief kunnen zijn voor het voorkomen van auteursrechtelijke inbreuk.
English
The exposure of large language models (LLMs) to copyrighted material during pre-training raises concerns about unintentional copyright infringement post deployment. This has driven the development of "copyright takedown" methods, post-training approaches aimed at preventing models from generating content substantially similar to copyrighted ones. While current mitigation approaches are somewhat effective for average-case risks, we demonstrate that they overlook worst-case copyright risks exhibits by the existence of long, verbatim quotes from copyrighted sources. We propose BloomScrub, a remarkably simple yet highly effective inference-time approach that provides certified copyright takedown. Our method repeatedly interleaves quote detection with rewriting techniques to transform potentially infringing segments. By leveraging efficient data sketches (Bloom filters), our approach enables scalable copyright screening even for large-scale real-world corpora. When quotes beyond a length threshold cannot be removed, the system can abstain from responding, offering certified risk reduction. Experimental results show that BloomScrub reduces infringement risk, preserves utility, and accommodates different levels of enforcement stringency with adaptive abstention. Our results suggest that lightweight, inference-time methods can be surprisingly effective for copyright prevention.

Summary

AI-Generated Summary

PDF71April 30, 2025