KI-generierte Bilderkennungssysteme verlassen sich übermäßig auf globale Artefakte: Belege durch Inpainting-Austausch
AI-Generated Image Detectors Overrely on Global Artifacts: Evidence from Inpainting Exchange
January 30, 2026
Autoren: Elif Nebioglu, Emirhan Bilgiç, Adrian Popescu
cs.AI
Zusammenfassung
Moderne, auf Deep Learning basierende Inpainting-Verfahren ermöglichen realistische lokale Bildmanipulationen, was kritische Herausforderungen für eine zuverlässige Erkennung aufwirft. Wir beobachten jedoch, dass sich aktuelle Detektoren primär auf globale Artefakte stützen, die als Nebeneffekte des Inpaintings auftreten, und nicht auf den lokal synthetisierten Inhalt. Wir zeigen, dass dieses Verhalten auftritt, weil die rekonstruktionsbedingte VAE-Architektur eine subtile, aber allgegenwärtige spektrale Verschiebung über das gesamte Bild induziert, einschließlich unveränderter Regionen. Um diesen Effekt zu isolieren, führen wir Inpainting Exchange (INP-X) ein, eine Operation, die die Originalpixel außerhalb des bearbeiteten Bereichs wiederherstellt, während der gesamte synthetisierte Inhalt erhalten bleibt. Wir erstellen einen Testdatensatz mit 90.000 Bildern, der reale, inpaintierte und ausgetauschte Bilder enthält, um dieses Phänomen zu bewerten. Unter dieser Intervention zeigt sich bei vortrainierten State-of-the-Art-Detektoren, einschließlich kommerzieller, ein dramatischer Genauigkeitsverlust (z.B. von 91\% auf 55\%), der häufig auf das Zufallsniveau abfällt. Wir liefern eine theoretische Analyse, die dieses Verhalten mit der Hochfrequenzdämpfung in Verbindung bringt, die durch Informationsengpässe in VAEs verursacht wird. Unsere Ergebnisse unterstreichen die Notwendigkeit einer inhaltsbewussten Erkennung. Tatsächlich führt ein Training mit unserem Datensatz zu einer besseren Generalisierung und Lokalisierung als Standard-Inpainting. Unser Datensatz und Code sind öffentlich verfügbar unter https://github.com/emirhanbilgic/INP-X.
English
Modern deep learning-based inpainting enables realistic local image manipulation, raising critical challenges for reliable detection. However, we observe that current detectors primarily rely on global artifacts that appear as inpainting side effects, rather than on locally synthesized content. We show that this behavior occurs because VAE-based reconstruction induces a subtle but pervasive spectral shift across the entire image, including unedited regions. To isolate this effect, we introduce Inpainting Exchange (INP-X), an operation that restores original pixels outside the edited region while preserving all synthesized content. We create a 90K test dataset including real, inpainted, and exchanged images to evaluate this phenomenon. Under this intervention, pretrained state-of-the-art detectors, including commercial ones, exhibit a dramatic drop in accuracy (e.g., from 91\% to 55\%), frequently approaching chance level. We provide a theoretical analysis linking this behavior to high-frequency attenuation caused by VAE information bottlenecks. Our findings highlight the need for content-aware detection. Indeed, training on our dataset yields better generalization and localization than standard inpainting. Our dataset and code are publicly available at https://github.com/emirhanbilgic/INP-X.