ChatPaper.aiChatPaper

Autoregressieve Beeldwatermerking via Lexicale Bias: Een Benadering Bestand tegen Regeneratieaanvallen

Autoregressive Images Watermarking through Lexical Biasing: An Approach Resistant to Regeneration Attack

June 1, 2025
Auteurs: Siqi Hui, Yiren Song, Sanping Zhou, Ye Deng, Wenli Huang, Jinjun Wang
cs.AI

Samenvatting

Autoregressieve (AR) beeldgeneratiemodellen hebben steeds meer aandacht gekregen vanwege hun doorbraken in synthesekwaliteit, wat de noodzaak benadrukt van robuuste watermerktechnieken om misbruik te voorkomen. Bestaande in-generatie watermerktechnieken zijn echter voornamelijk ontworpen voor diffusiemodellen, waarbij watermerken worden ingebed in latente diffusietoestanden. Dit ontwerp brengt aanzienlijke uitdagingen met zich mee voor directe aanpassing aan AR-modellen, die beelden sequentieel genereren via tokenvoorspelling. Bovendien kunnen diffusiegebaseerde regeneratieaanvallen dergelijke watermerken effectief wissen door latente diffusietoestanden te verstoren. Om deze uitdagingen aan te pakken, stellen we Lexical Bias Watermarking (LBW) voor, een nieuw framework ontworpen voor AR-modellen dat bestand is tegen regeneratieaanvallen. LBW integreert watermerken rechtstreeks in tokenkaarten door de tokenselectie tijdens de generatie te sturen naar een vooraf gedefinieerde 'groene lijst'. Deze aanpak zorgt voor naadloze integratie met bestaande AR-modellen en breidt zich natuurlijk uit naar post-hoc watermerken. Om de beveiliging tegen white-box-aanvallen te vergroten, wordt in plaats van een enkele groene lijst de groene lijst voor elke afbeelding willekeurig geselecteerd uit een pool van groene lijsten. Watermerkdetectie wordt uitgevoerd via kwantisatie en statistische analyse van de tokenverdeling. Uitgebreide experimenten tonen aan dat LBW superieure robuustheid van watermerken bereikt, met name in het weerstaan van regeneratieaanvallen.
English
Autoregressive (AR) image generation models have gained increasing attention for their breakthroughs in synthesis quality, highlighting the need for robust watermarking to prevent misuse. However, existing in-generation watermarking techniques are primarily designed for diffusion models, where watermarks are embedded within diffusion latent states. This design poses significant challenges for direct adaptation to AR models, which generate images sequentially through token prediction. Moreover, diffusion-based regeneration attacks can effectively erase such watermarks by perturbing diffusion latent states. To address these challenges, we propose Lexical Bias Watermarking (LBW), a novel framework designed for AR models that resists regeneration attacks. LBW embeds watermarks directly into token maps by biasing token selection toward a predefined green list during generation. This approach ensures seamless integration with existing AR models and extends naturally to post-hoc watermarking. To increase the security against white-box attacks, instead of using a single green list, the green list for each image is randomly sampled from a pool of green lists. Watermark detection is performed via quantization and statistical analysis of the token distribution. Extensive experiments demonstrate that LBW achieves superior watermark robustness, particularly in resisting regeneration attacks.
PDF92June 6, 2025