Mikrodefekte entlarven Makro-Fälschungen: Erkennung von KI-generierten Bildern durch lokale Verteilungsverschiebungen
Micro-Defects Expose Macro-Fakes: Detecting AI-Generated Images via Local Distributional Shifts
May 10, 2026
Autoren: Boxuan Zhang, Jianing Zhu, Qifan Wang, Jiang Liu, Ruixiang Tang
cs.AI
Zusammenfassung
Aktuelle generative Modelle können Bilder erzeugen, die äußerst realistisch wirken, was die Unterscheidung zwischen echten und KI-generierten Bildern erschwert. Bestehende Detektoren, die auf vortrainierten Merkmalsextraktoren basieren, neigen jedoch dazu, sich übermäßig auf globale Semantiken zu verlassen, was die Empfindlichkeit gegenüber den entscheidenden Mikrodefekten einschränkt. In dieser Arbeit schlagen wir Micro-Defects expose Macro-Fakes (MDMF) vor, ein lokal verteilungsbewusstes Erkennungsframework, das mikroskalige statistische Unregelmäßigkeiten zu makroskaligen Verteilungsunterschieden verstärkt. Um zu vermeiden, dass lokalisierte forensische Hinweise durch einfache Aggregation verwässert werden, führen wir eine lernbare Patch-Forensik-Signatur ein, die semantische Patch-Einbettungen in einen kompakten forensischen latenten Raum projiziert. Anschließend verwenden wir die Maximum Mean Discrepancy (MMD), um Verteilungsunterschiede zwischen generierten und echten Bildern zu quantifizieren. Unsere theoretisch fundierte Analyse zeigt, dass eine patchweise Modellierung nachweislich größere Diskrepanzen erzeugt, wenn lokalisierte forensische Signale in generierten Bildern vorhanden sind, was eine zuverlässigere Trennung von echten Bildern ermöglicht. Umfangreiche Experimente belegen, dass MDMF die Basisdetektoren in mehreren Benchmarks durchgängig übertrifft und damit seine allgemeine Wirksamkeit bestätigt. Projektseite: https://zbox1005.github.io/MDMF-project/
English
Recent generative models can produce images that appear highly realistic, raising challenges in distinguishing real and AI-generated images. Yet existing detectors based on pre-trained feature extractors tend to over-rely on global semantics, limiting sensitivity to the critical micro-defects. In this work, we propose Micro-Defects expose Macro-Fakes (MDMF), a local distribution-aware detection framework that amplifies micro-scale statistical irregularities into macro-level distributional discrepancies. To avoid localized forensic cues being diluted by plain aggregation, we introduce a learnable Patch Forensic Signature that projects semantic patch embeddings into a compact forensic latent space. We then use Maximum Mean Discrepancy (MMD) to quantify distributional discrepancies between generated and real images. Our theory-grounded analysis shows that patch-wise modeling yields provably larger discrepancies when localized forensic signals are present in generated images, enabling more reliable separation from real images. Extensive experiments demonstrate that MDMF consistently outperforms baseline detectors across multiple benchmarks, validating its general effectiveness. Project page: https://zbox1005.github.io/MDMF-project/