AI-gegenereerde Afbeeldingsdetectoren Vertrouwen Te Veel op Globale Artefacten: Bewijs uit Inpainting-uitwisseling
AI-Generated Image Detectors Overrely on Global Artifacts: Evidence from Inpainting Exchange
January 30, 2026
Auteurs: Elif Nebioglu, Emirhan Bilgiç, Adrian Popescu
cs.AI
Samenvatting
Moderne deep learning-gebaseerde inpainting maakt realistische lokale beeldmanipulatie mogelijk, wat kritieke uitdagingen oplevert voor betrouwbare detectie. Wij observeren echter dat huidige detectoren voornamelijk vertrouwen op globale artefacten die als bijwerkingen van inpainting optreden, in plaats van op lokaal gesynthetiseerde inhoud. Wij tonen aan dat dit gedrag ontstaat doordat VAE-gebaseerde reconstructie een subtiele maar alomtegenwoordige spectrale verschuiving over het gehele beeld induceert, inclusief onbewerkte regio's. Om dit effect te isoleren, introduceren wij Inpainting Exchange (INP-X), een operatie die originele pixels buiten de bewerkte regio herstelt terwijl alle gesynthetiseerde inhoud behouden blijft. Wij creëren een testdataset van 90K afbeeldingen met echte, ingepaafte en 'uitgewisselde' beelden om dit fenomeen te evalueren. Onder deze interventie vertonen vooraf getrainde state-of-the-art detectoren, inclusief commerciële, een dramatische daling in nauwkeurigheid (bijvoorbeeld van 91\% naar 55\%), die vaak het niveau van toeval benadert. Wij bieden een theoretische analyse die dit gedrag linkt aan hoogfrequente attenuatie veroorzaakt door VAE-informatieflessenhalzen. Onze bevindingen benadrukken de noodzaak van inhoudsbewuste detectie. Training op onze dataset leidt inderdaad tot betere generalisatie en lokalisatie dan standaard inpainting. Onze dataset en code zijn publiekelijk beschikbaar op https://github.com/emirhanbilgic/INP-X.
English
Modern deep learning-based inpainting enables realistic local image manipulation, raising critical challenges for reliable detection. However, we observe that current detectors primarily rely on global artifacts that appear as inpainting side effects, rather than on locally synthesized content. We show that this behavior occurs because VAE-based reconstruction induces a subtle but pervasive spectral shift across the entire image, including unedited regions. To isolate this effect, we introduce Inpainting Exchange (INP-X), an operation that restores original pixels outside the edited region while preserving all synthesized content. We create a 90K test dataset including real, inpainted, and exchanged images to evaluate this phenomenon. Under this intervention, pretrained state-of-the-art detectors, including commercial ones, exhibit a dramatic drop in accuracy (e.g., from 91\% to 55\%), frequently approaching chance level. We provide a theoretical analysis linking this behavior to high-frequency attenuation caused by VAE information bottlenecks. Our findings highlight the need for content-aware detection. Indeed, training on our dataset yields better generalization and localization than standard inpainting. Our dataset and code are publicly available at https://github.com/emirhanbilgic/INP-X.