ChatPaper.aiChatPaper

Genera, ma Verifica: Ridurre le Allucinazioni nei Modelli Visione-Linguaggio con Ricampionamento Retrospettivo

Generate, but Verify: Reducing Hallucination in Vision-Language Models with Retrospective Resampling

April 17, 2025
Autori: Tsung-Han Wu, Heekyung Lee, Jiaxin Ge, Joseph E. Gonzalez, Trevor Darrell, David M. Chan
cs.AI

Abstract

I modelli visione-linguaggio (VLMs) eccellono nella comprensione visiva, ma spesso soffrono di allucinazioni visive, generando descrizioni di oggetti, azioni o concetti inesistenti, rappresentando un rischio significativo in applicazioni critiche per la sicurezza. I metodi esistenti per mitigare le allucinazioni seguono tipicamente uno dei due paradigmi: l'aggiustamento della generazione, che modifica il comportamento di decodifica per allineare il testo agli input visivi, e la verifica post-hoc, in cui modelli esterni valutano e correggono gli output. Sebbene efficaci, i metodi di aggiustamento della generazione spesso si basano su euristiche e mancano di meccanismi di correzione, mentre la verifica post-hoc è complessa, richiedendo tipicamente più modelli e tendendo a rifiutare gli output piuttosto che affinarli. In questo lavoro, introduciamo REVERSE, un framework unificato che integra l'addestramento consapevole delle allucinazioni con l'autoverifica in tempo reale. Sfruttando un nuovo dataset di verifica delle allucinazioni contenente oltre 1,3 milioni di campioni semi-sintetici, insieme a una tecnica innovativa di ricampionamento retrospettivo durante l'inferenza, il nostro approccio consente ai VLMs di rilevare le allucinazioni durante la generazione e di rivederle dinamicamente. Le nostre valutazioni mostrano che REVERSE raggiunge una riduzione delle allucinazioni all'avanguardia, superando i migliori metodi esistenti fino al 12% su CHAIR-MSCOCO e al 28% su HaloQuest. Il nostro dataset, modello e codice sono disponibili al seguente indirizzo: https://reverse-vlm.github.io.
English
Vision-Language Models (VLMs) excel at visual understanding but often suffer from visual hallucinations, where they generate descriptions of nonexistent objects, actions, or concepts, posing significant risks in safety-critical applications. Existing hallucination mitigation methods typically follow one of two paradigms: generation adjustment, which modifies decoding behavior to align text with visual inputs, and post-hoc verification, where external models assess and correct outputs. While effective, generation adjustment methods often rely on heuristics and lack correction mechanisms, while post-hoc verification is complicated, typically requiring multiple models and tending to reject outputs rather than refine them. In this work, we introduce REVERSE, a unified framework that integrates hallucination-aware training with on-the-fly self-verification. By leveraging a new hallucination-verification dataset containing over 1.3M semi-synthetic samples, along with a novel inference-time retrospective resampling technique, our approach enables VLMs to both detect hallucinations during generation and dynamically revise those hallucinations. Our evaluations show that REVERSE achieves state-of-the-art hallucination reduction, outperforming the best existing methods by up to 12% on CHAIR-MSCOCO and 28% on HaloQuest. Our dataset, model, and code are available at: https://reverse-vlm.github.io.

Summary

AI-Generated Summary

PDF392April 18, 2025