I rilevatori di immagini generate dall'IA si affidano eccessivamente ad artefatti globali: evidenze dallo scambio di inpaint
AI-Generated Image Detectors Overrely on Global Artifacts: Evidence from Inpainting Exchange
January 30, 2026
Autori: Elif Nebioglu, Emirhan Bilgiç, Adrian Popescu
cs.AI
Abstract
L'inpainting moderno basato sul deep learning consente una manipolazione locale realistica delle immagini, sollevando sfide critiche per il rilevamento affidabile. Tuttavia, osserviamo che i detector attuali si basano principalmente su artefatti globali che appaiono come effetti collaterali dell'inpainting, piuttosto che sul contenuto sintetizzato localmente. Dimostriamo che questo comportamento si verifica perché la ricostruzione basata su VAE induce uno spostamento spettrale sottile ma pervasivo in tutta l'immagine, incluse le regioni non modificate. Per isolare questo effetto, introduciamo Inpainting Exchange (INP-X), un'operazione che ripristina i pixel originali al di fuori della regione modificata preservando tutto il contenuto sintetizzato. Creiamo un dataset di test di 90K immagini, includendo immagini reali, sottoposte a inpainting e "scambiate", per valutare questo fenomeno. Sotto questo intervento, i detector pre-addestrati allo stato dell'arte, inclusi quelli commerciali, mostrano un calo drammatico dell'accuratezza (ad esempio, dal 91% al 55%), avvicinandosi spesso al livello di casualità. Forniamo un'analisi teorica che collega questo comportamento all'attenuazione delle alte frequenze causata dai colli di bottiglia informativi dei VAE. I nostri risultati evidenziano la necessità di un rilevamento consapevole del contenuto. Infatti, l'addestramento sul nostro dataset produce una migliore generalizzazione e localizzazione rispetto all'inpainting standard. Il nostro dataset e il codice sono pubblicamente disponibili all'indirizzo https://github.com/emirhanbilgic/INP-X.
English
Modern deep learning-based inpainting enables realistic local image manipulation, raising critical challenges for reliable detection. However, we observe that current detectors primarily rely on global artifacts that appear as inpainting side effects, rather than on locally synthesized content. We show that this behavior occurs because VAE-based reconstruction induces a subtle but pervasive spectral shift across the entire image, including unedited regions. To isolate this effect, we introduce Inpainting Exchange (INP-X), an operation that restores original pixels outside the edited region while preserving all synthesized content. We create a 90K test dataset including real, inpainted, and exchanged images to evaluate this phenomenon. Under this intervention, pretrained state-of-the-art detectors, including commercial ones, exhibit a dramatic drop in accuracy (e.g., from 91\% to 55\%), frequently approaching chance level. We provide a theoretical analysis linking this behavior to high-frequency attenuation caused by VAE information bottlenecks. Our findings highlight the need for content-aware detection. Indeed, training on our dataset yields better generalization and localization than standard inpainting. Our dataset and code are publicly available at https://github.com/emirhanbilgic/INP-X.