ChatPaper.aiChatPaper

UniGenDet: Uma Estrutura Unificada Generativa-Discriminativa para Geração Co-Evolucionária de Imagens e Detecção de Imagens Geradas

UniGenDet: A Unified Generative-Discriminative Framework for Co-Evolutionary Image Generation and Generated Image Detection

April 23, 2026
Autores: Yanran Zhang, Wenzhao Zheng, Yifei Li, Bingyao Yu, Yu Zheng, Lei Chen, Jiwen Lu, Jie Zhou
cs.AI

Resumo

Nos últimos anos, foram feitos progressos significativos tanto na geração de imagens quanto na detecção de imagens geradas. Apesar do seu desenvolvimento rápido, mas em grande parte independente, essas duas áreas evoluíram com paradigmas arquitetônicos distintos: a primeira baseia-se predominantemente em redes generativas, enquanto a segunda privilegia estruturas discriminativas. Uma tendência recente em ambos os domínios é o uso de informação adversarial para melhorar o desempenho, revelando um potencial de sinergia. Contudo, a significativa divergência arquitetónica entre elas apresenta desafios consideráveis. Afastando-nos de abordagens anteriores, propomos o UniGenDet: uma estrutura unificada generativa-discriminativa para a Geração de imagens e a Deteção de imagens geradas em co-evolução. Para colmatar a lacuna de tarefas, concebemos um mecanismo de autoatenção multimodal simbiótico e um algoritmo de afinação unificado. Esta sinergia permite que a tarefa de geração melhore a interpretabilidade da identificação de autenticidade, enquanto os critérios de autenticidade orientam a criação de imagens com maior fidelidade. Além disso, introduzimos um mecanismo de alinhamento generativo informado por detetor para facilitar a troca de informações sem interrupções. Experiências extensas em múltiplos conjuntos de dados demonstram que o nosso método atinge um desempenho de ponta. Código: https://github.com/Zhangyr2022/UniGenDet{https://github.com/Zhangyr2022/UniGenDet}.
English
In recent years, significant progress has been made in both image generation and generated image detection. Despite their rapid, yet largely independent, development, these two fields have evolved distinct architectural paradigms: the former predominantly relies on generative networks, while the latter favors discriminative frameworks. A recent trend in both domains is the use of adversarial information to enhance performance, revealing potential for synergy. However, the significant architectural divergence between them presents considerable challenges. Departing from previous approaches, we propose UniGenDet: a Unified generative-discriminative framework for co-evolutionary image Generation and generated image Detection. To bridge the task gap, we design a symbiotic multimodal self-attention mechanism and a unified fine-tuning algorithm. This synergy allows the generation task to improve the interpretability of authenticity identification, while authenticity criteria guide the creation of higher-fidelity images. Furthermore, we introduce a detector-informed generative alignment mechanism to facilitate seamless information exchange. Extensive experiments on multiple datasets demonstrate that our method achieves state-of-the-art performance. Code: https://github.com/Zhangyr2022/UniGenDet{https://github.com/Zhangyr2022/UniGenDet}.
PDF31April 25, 2026