ChatPaper.aiChatPaper

Marcação d'Água Autoregressiva em Imagens através de Viés Léxico: Uma Abordagem Resistente a Ataques de Regeneração

Autoregressive Images Watermarking through Lexical Biasing: An Approach Resistant to Regeneration Attack

June 1, 2025
Autores: Siqi Hui, Yiren Song, Sanping Zhou, Ye Deng, Wenli Huang, Jinjun Wang
cs.AI

Resumo

Modelos de geração de imagens autoregressivos (AR) têm ganhado crescente atenção por seus avanços na qualidade de síntese, destacando a necessidade de técnicas robustas de marca d'água para prevenir o uso indevido. No entanto, as técnicas existentes de marca d'água durante a geração são principalmente projetadas para modelos de difusão, onde as marcas d'água são incorporadas nos estados latentes de difusão. Esse design apresenta desafios significativos para a adaptação direta a modelos AR, que geram imagens sequencialmente por meio da previsão de tokens. Além disso, ataques de regeneração baseados em difusão podem efetivamente apagar essas marcas d'água ao perturbar os estados latentes de difusão. Para enfrentar esses desafios, propomos a Marca d'Água por Viés Lexical (LBW), uma nova estrutura projetada para modelos AR que resiste a ataques de regeneração. A LBW incorpora marcas d'água diretamente nos mapas de tokens, ao direcionar a seleção de tokens para uma lista verde predefinida durante a geração. Essa abordagem garante uma integração perfeita com os modelos AR existentes e se estende naturalmente para marcação d'água pós-geração. Para aumentar a segurança contra ataques de caixa branca, em vez de usar uma única lista verde, a lista verde para cada imagem é amostrada aleatoriamente de um conjunto de listas verdes. A detecção da marca d'água é realizada por meio de quantização e análise estatística da distribuição de tokens. Experimentos extensivos demonstram que a LBW alcança uma robustez superior da marca d'água, particularmente na resistência a ataques de regeneração.
English
Autoregressive (AR) image generation models have gained increasing attention for their breakthroughs in synthesis quality, highlighting the need for robust watermarking to prevent misuse. However, existing in-generation watermarking techniques are primarily designed for diffusion models, where watermarks are embedded within diffusion latent states. This design poses significant challenges for direct adaptation to AR models, which generate images sequentially through token prediction. Moreover, diffusion-based regeneration attacks can effectively erase such watermarks by perturbing diffusion latent states. To address these challenges, we propose Lexical Bias Watermarking (LBW), a novel framework designed for AR models that resists regeneration attacks. LBW embeds watermarks directly into token maps by biasing token selection toward a predefined green list during generation. This approach ensures seamless integration with existing AR models and extends naturally to post-hoc watermarking. To increase the security against white-box attacks, instead of using a single green list, the green list for each image is randomly sampled from a pool of green lists. Watermark detection is performed via quantization and statistical analysis of the token distribution. Extensive experiments demonstrate that LBW achieves superior watermark robustness, particularly in resisting regeneration attacks.
PDF92June 6, 2025