Peccavi: Tecnica di Filigrana Visiva per Immagini Generate da IA, Sicura e Priva di Distorsioni, Basata su Parafrasi Visiva
Peccavi: Visual Paraphrase Attack Safe and Distortion Free Image Watermarking Technique for AI-Generated Images
June 28, 2025
Autori: Shreyas Dixit, Ashhar Aziz, Shashwat Bajpai, Vasu Sharma, Aman Chadha, Vinija Jain, Amitava Das
cs.AI
Abstract
Un rapporto dell'Agenzia per l'Applicazione della Legge dell'Unione Europea prevede che entro il 2026 fino al 90% dei contenuti online potrebbe essere generato sinteticamente, sollevando preoccupazioni tra i decisori politici, i quali hanno avvertito che "l'IA generativa potrebbe agire come un moltiplicatore di forza per la disinformazione politica. L'effetto combinato di testo, immagini, video e audio generati potrebbe superare l'influenza di qualsiasi singola modalità." In risposta, il disegno di legge AB 3211 della California impone la marcatura con filigrana di immagini, video e audio generati dall'IA. Tuttavia, permangono preoccupazioni riguardo alla vulnerabilità delle tecniche di filigrana invisibile alla manipolazione e alla possibilità che attori malintenzionati le aggirino completamente. Gli attacchi di rimozione della filigrana basati sull'IA generativa, in particolare il nuovo attacco di parafrasi visiva, hanno dimostrato la capacità di rimuovere completamente le filigrane, producendo una parafrasi dell'immagine originale. Questo articolo introduce PECCAVI, la prima tecnica di filigrana per immagini sicura contro gli attacchi di parafrasi visiva e priva di distorsioni. Negli attacchi di parafrasi visiva, un'immagine viene alterata preservando le sue regioni semantiche centrali, denominate Punti Non Fusibili (NMP). PECCAVI incorpora strategicamente le filigrane all'interno di questi NMP e utilizza la filigrana nel dominio della frequenza multi-canale. Inoltre, incorpora la brunitura rumorosa per contrastare gli sforzi di reverse engineering mirati a individuare gli NMP per interrompere la filigrana incorporata, migliorando così la durata. PECCAVI è indipendente dal modello. Tutte le risorse e i codici rilevanti saranno resi open-source.
English
A report by the European Union Law Enforcement Agency predicts that by 2026,
up to 90 percent of online content could be synthetically generated, raising
concerns among policymakers, who cautioned that "Generative AI could act as a
force multiplier for political disinformation. The combined effect of
generative text, images, videos, and audio may surpass the influence of any
single modality." In response, California's Bill AB 3211 mandates the
watermarking of AI-generated images, videos, and audio. However, concerns
remain regarding the vulnerability of invisible watermarking techniques to
tampering and the potential for malicious actors to bypass them entirely.
Generative AI-powered de-watermarking attacks, especially the newly introduced
visual paraphrase attack, have shown an ability to fully remove watermarks,
resulting in a paraphrase of the original image. This paper introduces PECCAVI,
the first visual paraphrase attack-safe and distortion-free image watermarking
technique. In visual paraphrase attacks, an image is altered while preserving
its core semantic regions, termed Non-Melting Points (NMPs). PECCAVI
strategically embeds watermarks within these NMPs and employs multi-channel
frequency domain watermarking. It also incorporates noisy burnishing to counter
reverse-engineering efforts aimed at locating NMPs to disrupt the embedded
watermark, thereby enhancing durability. PECCAVI is model-agnostic. All
relevant resources and codes will be open-sourced.