Microdefectos exponen macrofalsificaciones: Detección de imágenes generadas por IA mediante cambios distribucionales locales
Micro-Defects Expose Macro-Fakes: Detecting AI-Generated Images via Local Distributional Shifts
May 10, 2026
Autores: Boxuan Zhang, Jianing Zhu, Qifan Wang, Jiang Liu, Ruixiang Tang
cs.AI
Resumen
Los modelos generativos recientes pueden producir imágenes que parecen altamente realistas, lo que plantea desafíos para distinguir entre imágenes reales y generadas por IA. Sin embargo, los detectores existentes basados en extractores de características preentrenados tienden a depender excesivamente de la semántica global, lo que limita la sensibilidad a los microdefectos críticos. En este trabajo, proponemos Micro-Defects expose Macro-Fakes (MDMF), un marco de detección consciente de la distribución local que amplifica irregularidades estadísticas a microescala en discrepancias distribucionales a macroescala. Para evitar que las señales forenses localizadas se diluyan mediante una agregación simple, introducimos una Firma Forense de Parches aprendible que proyecta incrustaciones semánticas de parches en un espacio latente forense compacto. Luego, utilizamos la Discrepancia Máxima de la Media (MMD) para cuantificar las discrepancias distribucionales entre imágenes generadas y reales. Nuestro análisis fundamentado en la teoría muestra que el modelado por parches produce discrepancias demostrablemente mayores cuando hay señales forenses localizadas presentes en las imágenes generadas, lo que permite una separación más fiable de las imágenes reales. Experimentos exhaustivos demuestran que MDMF supera consistentemente a los detectores de referencia en múltiples puntos de referencia, validando su eficacia general. Página del proyecto: https://zbox1005.github.io/MDMF-project/
English
Recent generative models can produce images that appear highly realistic, raising challenges in distinguishing real and AI-generated images. Yet existing detectors based on pre-trained feature extractors tend to over-rely on global semantics, limiting sensitivity to the critical micro-defects. In this work, we propose Micro-Defects expose Macro-Fakes (MDMF), a local distribution-aware detection framework that amplifies micro-scale statistical irregularities into macro-level distributional discrepancies. To avoid localized forensic cues being diluted by plain aggregation, we introduce a learnable Patch Forensic Signature that projects semantic patch embeddings into a compact forensic latent space. We then use Maximum Mean Discrepancy (MMD) to quantify distributional discrepancies between generated and real images. Our theory-grounded analysis shows that patch-wise modeling yields provably larger discrepancies when localized forensic signals are present in generated images, enabling more reliable separation from real images. Extensive experiments demonstrate that MDMF consistently outperforms baseline detectors across multiple benchmarks, validating its general effectiveness. Project page: https://zbox1005.github.io/MDMF-project/