ChatPaper.aiChatPaper

Микродефекты выявляют макроподделки: обнаружение изображений, созданных ИИ, с помощью локальных сдвигов распределения

Micro-Defects Expose Macro-Fakes: Detecting AI-Generated Images via Local Distributional Shifts

May 10, 2026
Авторы: Boxuan Zhang, Jianing Zhu, Qifan Wang, Jiang Liu, Ruixiang Tang
cs.AI

Аннотация

Современные генеративные модели могут создавать изображения, которые выглядят чрезвычайно реалистично, что создаёт сложности в различении реальных и сгенерированных ИИ изображений. Однако существующие детекторы, основанные на предварительно обученных извлекателях признаков, склонны чрезмерно полагаться на глобальную семантику, что ограничивает чувствительность к критическим микродефектам. В этой работе мы предлагаем MDMF (Micro-Defects expose Macro-Fakes) — метод обнаружения, учитывающий локальные распределения, который усиливает микроскопические статистические нерегулярности до макроуровневых расхождений в распределениях. Чтобы избежать размывания локализованных криминалистических признаков при простом агрегировании, мы вводим обучаемый Patch Forensic Signature, который проецирует семантические вложения патчей в компактное криминалистическое латентное пространство. Затем мы используем максимальное среднее расхождение (MMD) для количественной оценки расхождений в распределениях между сгенерированными и реальными изображениями. Наш теоретически обоснованный анализ показывает, что попатчевое моделирование даёт доказуемо большие расхождения при наличии локализованных криминалистических сигналов в сгенерированных изображениях, что позволяет более надёжно отделять их от реальных изображений. Обширные эксперименты демонстрируют, что MDMF стабильно превосходит базовые детекторы на нескольких эталонных наборах данных, подтверждая его общую эффективность. Страница проекта: https://zbox1005.github.io/MDMF-project/
English
Recent generative models can produce images that appear highly realistic, raising challenges in distinguishing real and AI-generated images. Yet existing detectors based on pre-trained feature extractors tend to over-rely on global semantics, limiting sensitivity to the critical micro-defects. In this work, we propose Micro-Defects expose Macro-Fakes (MDMF), a local distribution-aware detection framework that amplifies micro-scale statistical irregularities into macro-level distributional discrepancies. To avoid localized forensic cues being diluted by plain aggregation, we introduce a learnable Patch Forensic Signature that projects semantic patch embeddings into a compact forensic latent space. We then use Maximum Mean Discrepancy (MMD) to quantify distributional discrepancies between generated and real images. Our theory-grounded analysis shows that patch-wise modeling yields provably larger discrepancies when localized forensic signals are present in generated images, enabling more reliable separation from real images. Extensive experiments demonstrate that MDMF consistently outperforms baseline detectors across multiple benchmarks, validating its general effectiveness. Project page: https://zbox1005.github.io/MDMF-project/
PDF21May 14, 2026