ChatPaper.aiChatPaper

UniGenDet: Унифицированная генеративно-дискриминационная схема для коэволюционной генерации изображений и детектирования сгенерированных изображений

UniGenDet: A Unified Generative-Discriminative Framework for Co-Evolutionary Image Generation and Generated Image Detection

April 23, 2026
Авторы: Yanran Zhang, Wenzhao Zheng, Yifei Li, Bingyao Yu, Yu Zheng, Lei Chen, Jiwen Lu, Jie Zhou
cs.AI

Аннотация

В последние годы был достигнут значительный прогресс как в области генерации изображений, так и в области обнаружения сгенерированных изображений. Несмотря на их быстрое, но в значительной степени независимое развитие, эти две области выработали различные архитектурные парадигмы: первая преимущественно опирается на генеративные сети, тогда как вторая отдает предпочтение дискриминативным框架. Современной тенденцией в обеих областях является использование состязательной информации для повышения производительности, что раскрывает потенциал для синергии. Однако значительное архитектурное расхождение между ними создает существенные трудности. В отличие от предыдущих подходов, мы предлагаем UniGenDet: унифицированную генеративно-дискриминативную框架 для совместной эволюции генерации изображений и обнаружения сгенерированных изображений. Для преодоления разрыва между задачами мы разрабатываем симбиотический мультимодальный механизм самовнимания и унифицированный алгоритм тонкой настройки. Эта синергия позволяет задаче генерации повышать интерпретируемость идентификации подлинности, в то время как критерии подлинности направляют создание изображений с более высокой достоверностью. Кроме того, мы вводим механизм генеративного выравнивания с учетом детектора для облегчения беспрепятственного обмена информацией. Многочисленные эксперименты на нескольких наборах данных демонстрируют, что наш метод достигает передовых результатов. Код: https://github.com/Zhangyr2022/UniGenDet{https://github.com/Zhangyr2022/UniGenDet}.
English
In recent years, significant progress has been made in both image generation and generated image detection. Despite their rapid, yet largely independent, development, these two fields have evolved distinct architectural paradigms: the former predominantly relies on generative networks, while the latter favors discriminative frameworks. A recent trend in both domains is the use of adversarial information to enhance performance, revealing potential for synergy. However, the significant architectural divergence between them presents considerable challenges. Departing from previous approaches, we propose UniGenDet: a Unified generative-discriminative framework for co-evolutionary image Generation and generated image Detection. To bridge the task gap, we design a symbiotic multimodal self-attention mechanism and a unified fine-tuning algorithm. This synergy allows the generation task to improve the interpretability of authenticity identification, while authenticity criteria guide the creation of higher-fidelity images. Furthermore, we introduce a detector-informed generative alignment mechanism to facilitate seamless information exchange. Extensive experiments on multiple datasets demonstrate that our method achieves state-of-the-art performance. Code: https://github.com/Zhangyr2022/UniGenDet{https://github.com/Zhangyr2022/UniGenDet}.
PDF31April 25, 2026