Autoregressieve Beeldwatermerking via Lexicale Bias: Een Benadering Bestand tegen Regeneratieaanvallen
Autoregressive Images Watermarking through Lexical Biasing: An Approach Resistant to Regeneration Attack
June 1, 2025
Auteurs: Siqi Hui, Yiren Song, Sanping Zhou, Ye Deng, Wenli Huang, Jinjun Wang
cs.AI
Samenvatting
Autoregressieve (AR) beeldgeneratiemodellen hebben steeds meer aandacht gekregen
vanwege hun doorbraken in synthesekwaliteit, wat de noodzaak benadrukt van robuuste
watermerktechnieken om misbruik te voorkomen. Bestaande in-generatie watermerktechnieken
zijn echter voornamelijk ontworpen voor diffusiemodellen, waarbij watermerken worden
ingebed in latente diffusietoestanden. Dit ontwerp brengt aanzienlijke uitdagingen met zich mee
voor directe aanpassing aan AR-modellen, die beelden sequentieel genereren via tokenvoorspelling.
Bovendien kunnen diffusiegebaseerde regeneratieaanvallen dergelijke watermerken effectief
wissen door latente diffusietoestanden te verstoren. Om deze uitdagingen aan te pakken, stellen
we Lexical Bias Watermarking (LBW) voor, een nieuw framework ontworpen voor AR-modellen
dat bestand is tegen regeneratieaanvallen. LBW integreert watermerken rechtstreeks in tokenkaarten
door de tokenselectie tijdens de generatie te sturen naar een vooraf gedefinieerde 'groene lijst'.
Deze aanpak zorgt voor naadloze integratie met bestaande AR-modellen en breidt zich natuurlijk uit
naar post-hoc watermerken. Om de beveiliging tegen white-box-aanvallen te vergroten, wordt in plaats
van een enkele groene lijst de groene lijst voor elke afbeelding willekeurig geselecteerd uit een pool
van groene lijsten. Watermerkdetectie wordt uitgevoerd via kwantisatie en statistische analyse van de
tokenverdeling. Uitgebreide experimenten tonen aan dat LBW superieure robuustheid van watermerken
bereikt, met name in het weerstaan van regeneratieaanvallen.
English
Autoregressive (AR) image generation models have gained increasing attention
for their breakthroughs in synthesis quality, highlighting the need for robust
watermarking to prevent misuse. However, existing in-generation watermarking
techniques are primarily designed for diffusion models, where watermarks are
embedded within diffusion latent states. This design poses significant
challenges for direct adaptation to AR models, which generate images
sequentially through token prediction. Moreover, diffusion-based regeneration
attacks can effectively erase such watermarks by perturbing diffusion latent
states. To address these challenges, we propose Lexical Bias Watermarking
(LBW), a novel framework designed for AR models that resists regeneration
attacks. LBW embeds watermarks directly into token maps by biasing token
selection toward a predefined green list during generation. This approach
ensures seamless integration with existing AR models and extends naturally to
post-hoc watermarking. To increase the security against white-box attacks,
instead of using a single green list, the green list for each image is randomly
sampled from a pool of green lists. Watermark detection is performed via
quantization and statistical analysis of the token distribution. Extensive
experiments demonstrate that LBW achieves superior watermark robustness,
particularly in resisting regeneration attacks.