ChatPaper.aiChatPaper

Micro-défauts exposent macro-faux : détection d'images générées par IA via des décalages distributionnels locaux

Micro-Defects Expose Macro-Fakes: Detecting AI-Generated Images via Local Distributional Shifts

May 10, 2026
Auteurs: Boxuan Zhang, Jianing Zhu, Qifan Wang, Jiang Liu, Ruixiang Tang
cs.AI

Résumé

Les modèles génératifs récents peuvent produire des images qui semblent très réalistes, soulevant des défis pour distinguer les images réelles des images générées par IA. Cependant, les détecteurs existants basés sur des extracteurs de caractéristiques pré-entraînés ont tendance à trop se fier à la sémantique globale, limitant la sensibilité aux micro-défauts critiques. Dans ce travail, nous proposons Micro-Defects expose Macro-Fakes (MDMF), un cadre de détection conscient de la distribution locale qui amplifie les irrégularités statistiques à micro-échelle en écarts distributionnels à macro-échelle. Pour éviter que les indices forensiques localisés ne soient dilués par une simple agrégation, nous introduisons une signature forensique de patch apprenable qui projette les embeddings sémantiques de patch dans un espace latent forensique compact. Nous utilisons ensuite la Discrepancy Maximale Moyenne (Maximum Mean Discrepancy, MMD) pour quantifier les écarts distributionnels entre les images générées et réelles. Notre analyse fondée sur la théorie montre que la modélisation par patch produit des écarts prouvables plus importants lorsque des signaux forensiques localisés sont présents dans les images générées, permettant une séparation plus fiable des images réelles. Des expériences approfondies démontrent que MDMF surpasse constamment les détecteurs de base sur plusieurs benchmarks, validant son efficacité générale. Page du projet : https://zbox1005.github.io/MDMF-project/
English
Recent generative models can produce images that appear highly realistic, raising challenges in distinguishing real and AI-generated images. Yet existing detectors based on pre-trained feature extractors tend to over-rely on global semantics, limiting sensitivity to the critical micro-defects. In this work, we propose Micro-Defects expose Macro-Fakes (MDMF), a local distribution-aware detection framework that amplifies micro-scale statistical irregularities into macro-level distributional discrepancies. To avoid localized forensic cues being diluted by plain aggregation, we introduce a learnable Patch Forensic Signature that projects semantic patch embeddings into a compact forensic latent space. We then use Maximum Mean Discrepancy (MMD) to quantify distributional discrepancies between generated and real images. Our theory-grounded analysis shows that patch-wise modeling yields provably larger discrepancies when localized forensic signals are present in generated images, enabling more reliable separation from real images. Extensive experiments demonstrate that MDMF consistently outperforms baseline detectors across multiple benchmarks, validating its general effectiveness. Project page: https://zbox1005.github.io/MDMF-project/
PDF21May 14, 2026