UniGenDet: Een Geïntegreerd Generatief-Discriminatief Kader voor Co-Evolutionaire Beeldgeneratie en Detectie van Gegenereerde Beelden
UniGenDet: A Unified Generative-Discriminative Framework for Co-Evolutionary Image Generation and Generated Image Detection
April 23, 2026
Auteurs: Yanran Zhang, Wenzhao Zheng, Yifei Li, Bingyao Yu, Yu Zheng, Lei Chen, Jiwen Lu, Jie Zhou
cs.AI
Samenvatting
De afgelopen jaren is er aanzienlijke vooruitgang geboekt op het gebied van zowel beeldgeneratie als de detectie van gegenereerde beelden. Ondanks hun snelle, maar grotendeels onafhankelijke ontwikkeling, hebben deze twee velden verschillende architecturale paradigma's ontwikkeld: het eerste steunt voornamelijk op generatieve netwerken, terwijl het tweede discriminerende architecturen prefereert. Een recente trend in beide domeinen is het gebruik van adversariële informatie om de prestaties te verbeteren, wat het potentieel voor synergie onthult. De aanzienlijke architecturale kloof tussen beide vormt echter een grote uitdaging. In tegenstelling tot eerdere benaderingen stellen wij UniGenDet voor: een verenigd generatief-discriminerend kader voor co-evolutionaire beeldgeneratie en detectie van gegenereerde beelden. Om de taakkloof te overbruggen, ontwerpen we een symbiotisch multimodaal self-attention-mechanisme en een verenigd fine-tuning-algoritme. Deze synergie stelt de generatietaak in staat om de interpreteerbaarheid van authenticiteitsidentificatie te verbeteren, terwijl authenticiteitscriteria de creatie van beelden met hogere fideliteit sturen. Verder introduceren we een detector-informed generatieve aligneringsmechanisme om naadloze informatie-uitwisseling te vergemakkelijken. Uitgebreide experimenten op meerdere datasets tonen aan dat onze methode state-of-the-art prestaties bereikt. Code: https://github.com/Zhangyr2022/UniGenDet{https://github.com/Zhangyr2022/UniGenDet}.
English
In recent years, significant progress has been made in both image generation and generated image detection. Despite their rapid, yet largely independent, development, these two fields have evolved distinct architectural paradigms: the former predominantly relies on generative networks, while the latter favors discriminative frameworks. A recent trend in both domains is the use of adversarial information to enhance performance, revealing potential for synergy. However, the significant architectural divergence between them presents considerable challenges. Departing from previous approaches, we propose UniGenDet: a Unified generative-discriminative framework for co-evolutionary image Generation and generated image Detection. To bridge the task gap, we design a symbiotic multimodal self-attention mechanism and a unified fine-tuning algorithm. This synergy allows the generation task to improve the interpretability of authenticity identification, while authenticity criteria guide the creation of higher-fidelity images. Furthermore, we introduce a detector-informed generative alignment mechanism to facilitate seamless information exchange. Extensive experiments on multiple datasets demonstrate that our method achieves state-of-the-art performance. Code: https://github.com/Zhangyr2022/UniGenDet{https://github.com/Zhangyr2022/UniGenDet}.