ChatPaper.aiChatPaper

LEGION: Leren Gronden en Verklaren voor Detectie van Synthetische Afbeeldingen

LEGION: Learning to Ground and Explain for Synthetic Image Detection

March 19, 2025
Auteurs: Hengrui Kang, Siwei Wen, Zichen Wen, Junyan Ye, Weijia Li, Peilin Feng, Baichuan Zhou, Bin Wang, Dahua Lin, Linfeng Zhang, Conghui He
cs.AI

Samenvatting

De snelle vooruitgang in generatieve technologie is naar voren gekomen als een tweesnijdend zwaard. Hoewel het krachtige tools biedt die het gemak vergroten, brengt het ook aanzienlijke sociale zorgen met zich mee. Als verdedigers schieten de huidige methoden voor het detecteren van synthetische afbeeldingen vaak tekort op het gebied van tekstuele interpreteerbaarheid op artefactniveau en zijn ze te veel gericht op het detecteren van beeldmanipulatie, en de huidige datasets lijden meestal onder verouderde generatoren en een gebrek aan gedetailleerde annotaties. In dit artikel introduceren we SynthScars, een hoogwaardige en diverse dataset bestaande uit 12.236 volledig synthetische afbeeldingen met annotaties door menselijke experts. Het bevat 4 verschillende typen beeldinhoud, 3 categorieën artefacten en gedetailleerde annotaties die pixelgewijze segmentatie, uitgebreide tekstuele uitleg en labels voor artefactcategorieën omvatten. Verder stellen we LEGION voor (LEarning to Ground and explain for Synthetic Image detectiON), een multimodaal groot taalmodel (MLLM)-gebaseerd raamwerk voor analyse van beeldvervalsing dat artefactdetectie, segmentatie en uitleg integreert. Op basis van deze mogelijkheid verkennen we LEGION verder als een controller, waarbij we het integreren in beeldverfijningspijplijnen om de generatie van hogere kwaliteit en realistischer afbeeldingen te begeleiden. Uitgebreide experimenten tonen aan dat LEGION bestaande methoden overtreft op meerdere benchmarks, waarbij het met name de op een na beste traditionele expert op SynthScars overtreft met 3,31% in mIoU en 7,75% in F1-score. Bovendien vertonen de verfijnde afbeeldingen die onder zijn begeleiding worden gegenereerd een sterkere afstemming op menselijke voorkeuren. De code, het model en de dataset zullen worden vrijgegeven.
English
The rapid advancements in generative technology have emerged as a double-edged sword. While offering powerful tools that enhance convenience, they also pose significant social concerns. As defenders, current synthetic image detection methods often lack artifact-level textual interpretability and are overly focused on image manipulation detection, and current datasets usually suffer from outdated generators and a lack of fine-grained annotations. In this paper, we introduce SynthScars, a high-quality and diverse dataset consisting of 12,236 fully synthetic images with human-expert annotations. It features 4 distinct image content types, 3 categories of artifacts, and fine-grained annotations covering pixel-level segmentation, detailed textual explanations, and artifact category labels. Furthermore, we propose LEGION (LEarning to Ground and explain for Synthetic Image detectiON), a multimodal large language model (MLLM)-based image forgery analysis framework that integrates artifact detection, segmentation, and explanation. Building upon this capability, we further explore LEGION as a controller, integrating it into image refinement pipelines to guide the generation of higher-quality and more realistic images. Extensive experiments show that LEGION outperforms existing methods across multiple benchmarks, particularly surpassing the second-best traditional expert on SynthScars by 3.31% in mIoU and 7.75% in F1 score. Moreover, the refined images generated under its guidance exhibit stronger alignment with human preferences. The code, model, and dataset will be released.

Summary

AI-Generated Summary

PDF212March 20, 2025