Peccavi : Technique de tatouage d'image sécurisée et sans distorsion pour les images générées par IA, résistante aux attaques de paraphrase visuelle
Peccavi: Visual Paraphrase Attack Safe and Distortion Free Image Watermarking Technique for AI-Generated Images
June 28, 2025
Auteurs: Shreyas Dixit, Ashhar Aziz, Shashwat Bajpai, Vasu Sharma, Aman Chadha, Vinija Jain, Amitava Das
cs.AI
Résumé
Un rapport de l'Agence de l'Union européenne pour l'application de la loi prévoit que d'ici 2026, jusqu'à 90 % du contenu en ligne pourrait être généré de manière synthétique, suscitant des inquiétudes parmi les décideurs politiques. Ces derniers ont averti que "l'IA générative pourrait agir comme un multiplicateur de force pour la désinformation politique. L'effet combiné du texte, des images, des vidéos et de l'audio générés pourrait surpasser l'influence de toute modalité unique." En réponse, la loi californienne AB 3211 impose le marquage par filigrane des images, vidéos et audio générés par IA. Cependant, des préoccupations subsistent concernant la vulnérabilité des techniques de filigrane invisible à la falsification et la possibilité que des acteurs malveillants les contournent entièrement. Les attaques de défiligranage alimentées par l'IA générative, en particulier la nouvelle attaque de paraphrase visuelle, ont démontré une capacité à supprimer complètement les filigranes, aboutissant à une paraphrase de l'image originale. Cet article présente PECCAVI, la première technique de filigranage d'images résistante aux attaques de paraphrase visuelle et sans distorsion. Dans les attaques de paraphrase visuelle, une image est modifiée tout en préservant ses régions sémantiques centrales, appelées Points Non Fondus (NMPs). PECCAVI intègre stratégiquement les filigranes dans ces NMPs et utilise un marquage dans le domaine fréquentiel multi-canal. Il intègre également un brûlage bruyant pour contrer les efforts de rétro-ingénierie visant à localiser les NMPs afin de perturber le filigrane intégré, améliorant ainsi la durabilité. PECCAVI est indépendant du modèle. Toutes les ressources et codes pertinents seront rendus open-source.
English
A report by the European Union Law Enforcement Agency predicts that by 2026,
up to 90 percent of online content could be synthetically generated, raising
concerns among policymakers, who cautioned that "Generative AI could act as a
force multiplier for political disinformation. The combined effect of
generative text, images, videos, and audio may surpass the influence of any
single modality." In response, California's Bill AB 3211 mandates the
watermarking of AI-generated images, videos, and audio. However, concerns
remain regarding the vulnerability of invisible watermarking techniques to
tampering and the potential for malicious actors to bypass them entirely.
Generative AI-powered de-watermarking attacks, especially the newly introduced
visual paraphrase attack, have shown an ability to fully remove watermarks,
resulting in a paraphrase of the original image. This paper introduces PECCAVI,
the first visual paraphrase attack-safe and distortion-free image watermarking
technique. In visual paraphrase attacks, an image is altered while preserving
its core semantic regions, termed Non-Melting Points (NMPs). PECCAVI
strategically embeds watermarks within these NMPs and employs multi-channel
frequency domain watermarking. It also incorporates noisy burnishing to counter
reverse-engineering efforts aimed at locating NMPs to disrupt the embedded
watermark, thereby enhancing durability. PECCAVI is model-agnostic. All
relevant resources and codes will be open-sourced.