UniGenDet: Ein einheitliches generativ-diskriminatives Framework für ko-evolutionäre Bildgenerierung und die Detektion generierter Bilder
UniGenDet: A Unified Generative-Discriminative Framework for Co-Evolutionary Image Generation and Generated Image Detection
April 23, 2026
Autoren: Yanran Zhang, Wenzhao Zheng, Yifei Li, Bingyao Yu, Yu Zheng, Lei Chen, Jiwen Lu, Jie Zhou
cs.AI
Zusammenfassung
In den letzten Jahren wurden sowohl bei der Bildgenerierung als auch bei der Erkennung generierter Bilder bedeutende Fortschritte erzielt. Trotz ihrer raschen, jedoch weitgehend unabhängigen Entwicklung haben sich diese beiden Bereiche unterschiedliche architektonische Paradigmen zu eigen gemacht: Ersterer stützt sich überwiegend auf generative Netzwerke, während Letzterer diskriminative Frameworks bevorzugt. Ein aktueller Trend in beiden Domänen ist die Nutzung adversarieller Information zur Leistungssteigerung, was ein Potenzial für Synergien offenbart. Die erhebliche architektonische Divergenz zwischen ihnen stellt jedoch erhebliche Herausforderungen dar. Abweichend von früheren Ansätzen schlagen wir UniGenDet vor: ein vereinheitlichtes generativ-diskriminatives Framework für die ko-evolutionäre Bildgenerierung und Erkennung generierter Bilder. Um die Aufgabenlücke zu überbrücken, entwerfen wir einen symbiotischen multimodalen Selbstaufmerksamkeitsmechanismus und einen vereinheitlichten Feinabstimmungsalgorithmus. Diese Synergie ermöglicht es der Generierungsaufgabe, die Interpretierbarkeit der Authentizitätsidentifikation zu verbessern, während Authentizitätskriterien die Erstellung von Bildern mit höherer Treue leiten. Darüber hinaus führen wir einen detektorgestützten generativen Abgleichmechanismus ein, um einen nahtlosen Informationsaustausch zu ermöglichen. Umfangreiche Experimente mit mehreren Datensätzen belegen, dass unsere Methode state-of-the-art Leistung erzielt. Code: https://github.com/Zhangyr2022/UniGenDet{https://github.com/Zhangyr2022/UniGenDet}.
English
In recent years, significant progress has been made in both image generation and generated image detection. Despite their rapid, yet largely independent, development, these two fields have evolved distinct architectural paradigms: the former predominantly relies on generative networks, while the latter favors discriminative frameworks. A recent trend in both domains is the use of adversarial information to enhance performance, revealing potential for synergy. However, the significant architectural divergence between them presents considerable challenges. Departing from previous approaches, we propose UniGenDet: a Unified generative-discriminative framework for co-evolutionary image Generation and generated image Detection. To bridge the task gap, we design a symbiotic multimodal self-attention mechanism and a unified fine-tuning algorithm. This synergy allows the generation task to improve the interpretability of authenticity identification, while authenticity criteria guide the creation of higher-fidelity images. Furthermore, we introduce a detector-informed generative alignment mechanism to facilitate seamless information exchange. Extensive experiments on multiple datasets demonstrate that our method achieves state-of-the-art performance. Code: https://github.com/Zhangyr2022/UniGenDet{https://github.com/Zhangyr2022/UniGenDet}.