UniGenDet : Un cadre unifié génératif-discriminatif pour la génération d'images par co-évolution et la détection d'images générées
UniGenDet: A Unified Generative-Discriminative Framework for Co-Evolutionary Image Generation and Generated Image Detection
April 23, 2026
Auteurs: Yanran Zhang, Wenzhao Zheng, Yifei Li, Bingyao Yu, Yu Zheng, Lei Chen, Jiwen Lu, Jie Zhou
cs.AI
Résumé
Ces dernières années, des progrès significatifs ont été réalisés à la fois dans la génération d'images et la détection d'images générées. Malgré un développement rapide, mais largement indépendant, ces deux domaines ont évolué selon des paradigmes architecturaux distincts : le premier repose principalement sur des réseaux génératifs, tandis que le second privilégie des architectures discriminatives. Une tendance récente dans les deux domaines est l'utilisation d'informations adverses pour améliorer les performances, révélant un potentiel de synergie. Cependant, la divergence architecturale significative entre eux présente des défis considérables. Nous proposons une approche novatrice avec UniGenDet : un cadre génératif-discriminatif unifié pour la Génération d'images et la Détection d'images générées en co-évolution. Pour combler l'écart entre les tâches, nous concevons un mécanisme d'auto-attention multimodale symbiotique et un algorithme de réglage fin unifié. Cette synergie permet à la tâche de génération d'améliorer l'interprétabilité de l'identification de l'authenticité, tandis que les critères d'authenticité guident la création d'images de plus haute fidélité. De plus, nous introduisons un mécanisme d'alignement génératif informé par le détecteur pour faciliter un échange d'informations transparent. Des expériences approfondies sur plusieurs jeux de données démontrent que notre méthode atteint des performances à la pointe de l'état de l'art. Code : https://github.com/Zhangyr2022/UniGenDet{https://github.com/Zhangyr2022/UniGenDet}.
English
In recent years, significant progress has been made in both image generation and generated image detection. Despite their rapid, yet largely independent, development, these two fields have evolved distinct architectural paradigms: the former predominantly relies on generative networks, while the latter favors discriminative frameworks. A recent trend in both domains is the use of adversarial information to enhance performance, revealing potential for synergy. However, the significant architectural divergence between them presents considerable challenges. Departing from previous approaches, we propose UniGenDet: a Unified generative-discriminative framework for co-evolutionary image Generation and generated image Detection. To bridge the task gap, we design a symbiotic multimodal self-attention mechanism and a unified fine-tuning algorithm. This synergy allows the generation task to improve the interpretability of authenticity identification, while authenticity criteria guide the creation of higher-fidelity images. Furthermore, we introduce a detector-informed generative alignment mechanism to facilitate seamless information exchange. Extensive experiments on multiple datasets demonstrate that our method achieves state-of-the-art performance. Code: https://github.com/Zhangyr2022/UniGenDet{https://github.com/Zhangyr2022/UniGenDet}.