ChatPaper.aiChatPaper

自己回帰的画像生成における透かし技術

Watermarking Autoregressive Image Generation

June 19, 2025
著者: Nikola Jovanović, Ismail Labiad, Tomáš Souček, Martin Vechev, Pierre Fernandez
cs.AI

要旨

生成モデルの出力に透かしを埋め込むことは、その出所を追跡するための有望なアプローチとして注目されている。自己回帰型画像生成モデルとその悪用の可能性に対する関心が高まっているにもかかわらず、これまでトークンレベルでその出力に透かしを埋め込む試みは行われていなかった。本研究では、言語モデルの透かし技術をこの設定に適用し、初めてそのようなアプローチを提案する。ここで重要な課題として、生成された画像トークンを再トークン化するとトークンシーケンスが大幅に変化し、透かしが事実上消去されるという逆サイクル一貫性(RCC)の欠如が挙げられる。この課題に対処し、一般的な画像変換、ニューラル圧縮、除去攻撃に対して頑健な手法を実現するため、(i) RCCを改善するためのカスタムトークナイザー・デトークナイザーのファインチューニング手順、および(ii)補完的な透かし同期層を導入する。実験結果から、本手法は理論的に裏付けられたp値に基づいて信頼性と頑健性の高い透かし検出を可能にすることが示されている。
English
Watermarking the outputs of generative models has emerged as a promising approach for tracking their provenance. Despite significant interest in autoregressive image generation models and their potential for misuse, no prior work has attempted to watermark their outputs at the token level. In this work, we present the first such approach by adapting language model watermarking techniques to this setting. We identify a key challenge: the lack of reverse cycle-consistency (RCC), wherein re-tokenizing generated image tokens significantly alters the token sequence, effectively erasing the watermark. To address this and to make our method robust to common image transformations, neural compression, and removal attacks, we introduce (i) a custom tokenizer-detokenizer finetuning procedure that improves RCC, and (ii) a complementary watermark synchronization layer. As our experiments demonstrate, our approach enables reliable and robust watermark detection with theoretically grounded p-values.
PDF32June 23, 2025