ChatPaper.aiChatPaper

UniGenDet: un quadro unificato generativo-discriminativo per la generazione di immagini co-evolutiva e il rilevamento di immagini generate

UniGenDet: A Unified Generative-Discriminative Framework for Co-Evolutionary Image Generation and Generated Image Detection

April 23, 2026
Autori: Yanran Zhang, Wenzhao Zheng, Yifei Li, Bingyao Yu, Yu Zheng, Lei Chen, Jiwen Lu, Jie Zhou
cs.AI

Abstract

Negli ultimi anni, sono stati compiuti progressi significativi sia nella generazione di immagini che nel rilevamento di immagini generate. Nonostante il loro sviluppo rapido, ma in gran parte indipendente, questi due campi hanno evoluto paradigmi architetturali distinti: il primo si basa prevalentemente su reti generative, mentre il secondo predilige framework discriminatori. Una tendenza recente in entrambi i domini è l'uso di informazioni avversarie per migliorare le prestazioni, rivelando un potenziale di sinergia. Tuttavia, la significativa divergenza architetturale tra di essi presenta sfide considerevoli. Allontanandoci dagli approcci precedenti, proponiamo UniGenDet: un framework unificato generativo-discriminativo per la Generazione di immagini e il Rilevamento di immagini generate in co-evoluzione. Per colmare il divario tra i compiti, progettiamo un meccanismo di self-attention multimodale simbiotico e un algoritmo di fine-tuning unificato. Questa sinergia consente al compito di generazione di migliorare l'interpretabilità dell'identificazione dell'autenticità, mentre i criteri di autenticità guidano la creazione di immagini con fedeltà più elevata. Inoltre, introduciamo un meccanismo di allineamento generativo informato dal rilevatore per facilitare uno scambio di informazioni senza soluzione di continuità. Esperimenti estesi su più dataset dimostrano che il nostro metodo raggiunge prestazioni all'avanguardia. Codice: https://github.com/Zhangyr2022/UniGenDet{https://github.com/Zhangyr2022/UniGenDet}.
English
In recent years, significant progress has been made in both image generation and generated image detection. Despite their rapid, yet largely independent, development, these two fields have evolved distinct architectural paradigms: the former predominantly relies on generative networks, while the latter favors discriminative frameworks. A recent trend in both domains is the use of adversarial information to enhance performance, revealing potential for synergy. However, the significant architectural divergence between them presents considerable challenges. Departing from previous approaches, we propose UniGenDet: a Unified generative-discriminative framework for co-evolutionary image Generation and generated image Detection. To bridge the task gap, we design a symbiotic multimodal self-attention mechanism and a unified fine-tuning algorithm. This synergy allows the generation task to improve the interpretability of authenticity identification, while authenticity criteria guide the creation of higher-fidelity images. Furthermore, we introduce a detector-informed generative alignment mechanism to facilitate seamless information exchange. Extensive experiments on multiple datasets demonstrate that our method achieves state-of-the-art performance. Code: https://github.com/Zhangyr2022/UniGenDet{https://github.com/Zhangyr2022/UniGenDet}.
PDF31April 25, 2026