ChatPaper.aiChatPaper

Les détecteurs d'images générées par IA se fient excessivement aux artefacts globaux : preuve par échange de restauration

AI-Generated Image Detectors Overrely on Global Artifacts: Evidence from Inpainting Exchange

January 30, 2026
Auteurs: Elif Nebioglu, Emirhan Bilgiç, Adrian Popescu
cs.AI

Résumé

L'inpainting moderne basé sur l'apprentissage profond permet une manipulation locale réaliste des images, ce qui soulève des défis critiques pour une détection fiable. Cependant, nous observons que les détecteurs actuels s'appuient principalement sur des artéfacts globaux qui apparaissent comme des effets secondaires de l'inpainting, plutôt que sur le contenu synthétisé localement. Nous montrons que ce comportement se produit parce que la reconstruction basée sur les VAE induit un décalage spectral subtil mais omniprésent sur l'ensemble de l'image, y compris dans les régions non éditées. Pour isoler cet effet, nous introduisons l'Échange d'Inpainting (INP-X), une opération qui restaure les pixels originaux en dehors de la région éditée tout en préservant l'intégralité du contenu synthétisé. Nous créons un jeu de données de test de 90K images incluant des images réelles, inpaintées et échangées pour évaluer ce phénomène. Sous cette intervention, les détecteurs pré-entraînés à la pointe, y compris commerciaux, présentent une chute dramatique de précision (par exemple, de 91\% à 55\%), approchant fréquemment le niveau du hasard. Nous fournissons une analyse théorique reliant ce comportement à une atténuation des hautes fréquences causée par les goulots d'étranglement informationnels des VAE. Nos résultats soulignent la nécessité d'une détection sensible au contenu. En effet, l'entraînement sur notre jeu de données permet une meilleure généralisation et localisation que l'inpainting standard. Notre jeu de données et notre code sont disponibles publiquement à l'adresse https://github.com/emirhanbilgic/INP-X.
English
Modern deep learning-based inpainting enables realistic local image manipulation, raising critical challenges for reliable detection. However, we observe that current detectors primarily rely on global artifacts that appear as inpainting side effects, rather than on locally synthesized content. We show that this behavior occurs because VAE-based reconstruction induces a subtle but pervasive spectral shift across the entire image, including unedited regions. To isolate this effect, we introduce Inpainting Exchange (INP-X), an operation that restores original pixels outside the edited region while preserving all synthesized content. We create a 90K test dataset including real, inpainted, and exchanged images to evaluate this phenomenon. Under this intervention, pretrained state-of-the-art detectors, including commercial ones, exhibit a dramatic drop in accuracy (e.g., from 91\% to 55\%), frequently approaching chance level. We provide a theoretical analysis linking this behavior to high-frequency attenuation caused by VAE information bottlenecks. Our findings highlight the need for content-aware detection. Indeed, training on our dataset yields better generalization and localization than standard inpainting. Our dataset and code are publicly available at https://github.com/emirhanbilgic/INP-X.
PDF11March 12, 2026