ChatPaper.aiChatPaper

Détection interprétable et fiable des images générées par IA via un raisonnement ancré dans les MLLMs

Interpretable and Reliable Detection of AI-Generated Images via Grounded Reasoning in MLLMs

June 8, 2025
Auteurs: Yikun Ji, Hong Yan, Jun Lan, Huijia Zhu, Weiqiang Wang, Qi Fan, Liqing Zhang, Jianfu Zhang
cs.AI

Résumé

L'évolution rapide des technologies de génération d'images intensifie la demande de méthodes de détection interprétables et robustes. Bien que les approches existantes atteignent souvent une grande précision, elles fonctionnent généralement comme des boîtes noires sans fournir de justifications compréhensibles par l'homme. Les modèles de langage multi-modaux (MLLMs), bien que non conçus à l'origine pour la détection de falsifications, présentent de solides capacités d'analyse et de raisonnement. Lorsqu'ils sont correctement affinés, ils peuvent identifier efficacement les images générées par l'IA et fournir des explications pertinentes. Cependant, les MLLMs existants peinent encore avec les hallucinations et échouent souvent à aligner leurs interprétations visuelles avec le contenu réel de l'image et le raisonnement humain. Pour combler cette lacune, nous construisons un ensemble de données d'images générées par l'IA annotées avec des cadres de délimitation et des légendes descriptives qui mettent en évidence les artefacts de synthèse, établissant ainsi une base pour un raisonnement visuel-textuel ancré et aligné sur l'homme. Nous affinons ensuite les MLLMs grâce à une stratégie d'optimisation en plusieurs étapes qui équilibre progressivement les objectifs de détection précise, de localisation visuelle et d'explication textuelle cohérente. Le modèle résultant obtient des performances supérieures à la fois dans la détection des images générées par l'IA et dans la localisation des défauts visuels, surpassant significativement les méthodes de référence.
English
The rapid advancement of image generation technologies intensifies the demand for interpretable and robust detection methods. Although existing approaches often attain high accuracy, they typically operate as black boxes without providing human-understandable justifications. Multi-modal Large Language Models (MLLMs), while not originally intended for forgery detection, exhibit strong analytical and reasoning capabilities. When properly fine-tuned, they can effectively identify AI-generated images and offer meaningful explanations. However, existing MLLMs still struggle with hallucination and often fail to align their visual interpretations with actual image content and human reasoning. To bridge this gap, we construct a dataset of AI-generated images annotated with bounding boxes and descriptive captions that highlight synthesis artifacts, establishing a foundation for human-aligned visual-textual grounded reasoning. We then finetune MLLMs through a multi-stage optimization strategy that progressively balances the objectives of accurate detection, visual localization, and coherent textual explanation. The resulting model achieves superior performance in both detecting AI-generated images and localizing visual flaws, significantly outperforming baseline methods.
PDF72June 11, 2025