ChatPaper.aiChatPaper

Rilevazione interpretabile e affidabile di immagini generate dall'IA tramite ragionamento fondato nei MLLM

Interpretable and Reliable Detection of AI-Generated Images via Grounded Reasoning in MLLMs

June 8, 2025
Autori: Yikun Ji, Hong Yan, Jun Lan, Huijia Zhu, Weiqiang Wang, Qi Fan, Liqing Zhang, Jianfu Zhang
cs.AI

Abstract

Il rapido progresso delle tecnologie di generazione di immagini intensifica la richiesta di metodi di rilevamento interpretabili e robusti. Sebbene gli approcci esistenti raggiungano spesso un'elevata accuratezza, operano tipicamente come scatole nere senza fornire giustificazioni comprensibili per gli esseri umani. I Modelli Linguistici Multimodali di Grande Scala (MLLMs), pur non essendo originariamente progettati per il rilevamento di falsificazioni, dimostrano forti capacità analitiche e di ragionamento. Quando adeguatamente ottimizzati, possono identificare efficacemente le immagini generate dall'IA e offrire spiegazioni significative. Tuttavia, gli MLLMs esistenti continuano a lottare con il fenomeno dell'allucinazione e spesso non riescono ad allineare le loro interpretazioni visive con il contenuto effettivo dell'immagine e il ragionamento umano. Per colmare questa lacuna, abbiamo costruito un dataset di immagini generate dall'IA annotate con riquadri di delimitazione e didascalie descrittive che evidenziano gli artefatti di sintesi, stabilendo una base per un ragionamento visivo-testuale allineato all'umano. Successivamente, abbiamo ottimizzato gli MLLMs attraverso una strategia di ottimizzazione a più fasi che bilancia progressivamente gli obiettivi di rilevamento accurato, localizzazione visiva e spiegazione testuale coerente. Il modello risultante raggiunge prestazioni superiori sia nel rilevamento delle immagini generate dall'IA che nella localizzazione dei difetti visivi, superando significativamente i metodi di base.
English
The rapid advancement of image generation technologies intensifies the demand for interpretable and robust detection methods. Although existing approaches often attain high accuracy, they typically operate as black boxes without providing human-understandable justifications. Multi-modal Large Language Models (MLLMs), while not originally intended for forgery detection, exhibit strong analytical and reasoning capabilities. When properly fine-tuned, they can effectively identify AI-generated images and offer meaningful explanations. However, existing MLLMs still struggle with hallucination and often fail to align their visual interpretations with actual image content and human reasoning. To bridge this gap, we construct a dataset of AI-generated images annotated with bounding boxes and descriptive captions that highlight synthesis artifacts, establishing a foundation for human-aligned visual-textual grounded reasoning. We then finetune MLLMs through a multi-stage optimization strategy that progressively balances the objectives of accurate detection, visual localization, and coherent textual explanation. The resulting model achieves superior performance in both detecting AI-generated images and localizing visual flaws, significantly outperforming baseline methods.
PDF72June 11, 2025