ChatPaper.aiChatPaper

UniGenDet: Un Marco Unificado Generativo-Discriminativo para la Generación de Imágenes Co-Evolutivas y la Detección de Imágenes Generadas

UniGenDet: A Unified Generative-Discriminative Framework for Co-Evolutionary Image Generation and Generated Image Detection

April 23, 2026
Autores: Yanran Zhang, Wenzhao Zheng, Yifei Li, Bingyao Yu, Yu Zheng, Lei Chen, Jiwen Lu, Jie Zhou
cs.AI

Resumen

En los últimos años, se ha logrado un progreso significativo tanto en la generación de imágenes como en la detección de imágenes generadas. A pesar de su desarrollo rápido, aunque en gran medida independiente, estos dos campos han evolucionado con paradigmas arquitectónicos distintos: el primero se basa predominantemente en redes generativas, mientras que el segundo favorece los marcos discriminativos. Una tendencia reciente en ambos dominios es el uso de información adversarial para mejorar el rendimiento, lo que revela un potencial de sinergia. Sin embargo, la significativa divergencia arquitectónica entre ellos presenta desafíos considerables. Alejándonos de enfoques anteriores, proponemos UniGenDet: un marco generativo-discriminativo unificado para la Generación de imágenes y la Detección de imágenes generadas de forma coevolutiva. Para salvar la brecha de tareas, diseñamos un mecanismo de autoatención multimodal simbiótico y un algoritmo de ajuste fino unificado. Esta sinergia permite que la tarea de generación mejore la interpretabilidad de la identificación de autenticidad, mientras que los criterios de autenticidad guían la creación de imágenes de mayor fidelidad. Además, introducimos un mecanismo de alineación generativa informado por el detector para facilitar un intercambio de información fluido. Experimentos exhaustivos en múltiples conjuntos de datos demuestran que nuestro método alcanza un rendimiento de vanguardia. Código: https://github.com/Zhangyr2022/UniGenDet.
English
In recent years, significant progress has been made in both image generation and generated image detection. Despite their rapid, yet largely independent, development, these two fields have evolved distinct architectural paradigms: the former predominantly relies on generative networks, while the latter favors discriminative frameworks. A recent trend in both domains is the use of adversarial information to enhance performance, revealing potential for synergy. However, the significant architectural divergence between them presents considerable challenges. Departing from previous approaches, we propose UniGenDet: a Unified generative-discriminative framework for co-evolutionary image Generation and generated image Detection. To bridge the task gap, we design a symbiotic multimodal self-attention mechanism and a unified fine-tuning algorithm. This synergy allows the generation task to improve the interpretability of authenticity identification, while authenticity criteria guide the creation of higher-fidelity images. Furthermore, we introduce a detector-informed generative alignment mechanism to facilitate seamless information exchange. Extensive experiments on multiple datasets demonstrate that our method achieves state-of-the-art performance. Code: https://github.com/Zhangyr2022/UniGenDet{https://github.com/Zhangyr2022/UniGenDet}.
PDF31April 25, 2026