ChatPaper.aiChatPaper

ローカライズされたメッセージで任意のものにウォーターマークを入れる

Watermark Anything with Localized Messages

November 11, 2024
著者: Tom Sander, Pierre Fernandez, Alain Durmus, Teddy Furon, Matthijs Douze
cs.AI

要旨

画像透かし付け手法は、小さな透かし領域を処理するようには設計されていません。これにより、画像の一部が異なるソースから来たり編集されたりする実世界のシナリオでの応用が制限されます。私たちは、局所的な画像透かし付けのための深層学習モデルを紹介します。このモデルは「Watermark Anything Model(WAM)」と呼ばれています。WAMの埋め込み器は、入力画像を視覚的に変更し、抽出器は受信画像を透かし付きと非透かし領域に分割し、透かし付きと判明した領域から1つまたは複数の隠されたメッセージを回復します。これらのモデルは、低解像度で知覚制約なしで共同でトレーニングされ、その後、視覚的に認識できないようにポストトレーニングされ、複数の透かしに対応します。実験の結果、WAMは、特に修復やスパイスに対して、高解像度の画像でも視覚的に認識できない性質と堅牢性において、最先端の手法と競合していることが示されました。さらに、WAMは新しい機能を提供します。WAMは、スパイスされた画像内の透かし領域を特定し、256×256の小さな画像でも、画像表面の10%以下の小さな領域から1ビット未満の誤りで異なる32ビットのメッセージを抽出することができます。
English
Image watermarking methods are not tailored to handle small watermarked areas. This restricts applications in real-world scenarios where parts of the image may come from different sources or have been edited. We introduce a deep-learning model for localized image watermarking, dubbed the Watermark Anything Model (WAM). The WAM embedder imperceptibly modifies the input image, while the extractor segments the received image into watermarked and non-watermarked areas and recovers one or several hidden messages from the areas found to be watermarked. The models are jointly trained at low resolution and without perceptual constraints, then post-trained for imperceptibility and multiple watermarks. Experiments show that WAM is competitive with state-of-the art methods in terms of imperceptibility and robustness, especially against inpainting and splicing, even on high-resolution images. Moreover, it offers new capabilities: WAM can locate watermarked areas in spliced images and extract distinct 32-bit messages with less than 1 bit error from multiple small regions - no larger than 10% of the image surface - even for small 256times 256 images.

Summary

AI-Generated Summary

PDF224November 12, 2024