ChatPaper.aiChatPaper

Migliorare il Modello Linguistico di Visione per il Ragionamento a Catena del Pensiero.

Improve Vision Language Model Chain-of-thought Reasoning

October 21, 2024
Autori: Ruohong Zhang, Bowen Zhang, Yanghao Li, Haotian Zhang, Zhiqing Sun, Zhe Gan, Yinfei Yang, Ruoming Pang, Yiming Yang
cs.AI

Abstract

Il ragionamento a catena (CoT) nei modelli di linguaggio visivo (VLM) è cruciale per migliorare l'interpretabilità e l'affidabilità. Tuttavia, le attuali ricette di addestramento mancano di dati robusti per il ragionamento CoT, basandosi su set di dati dominati da brevi annotazioni con spiegazioni minime. In questo lavoro, dimostriamo che addestrare il VLM su brevi risposte non generalizza bene ai compiti di ragionamento che richiedono risposte più dettagliate. Per affrontare questo problema, proponiamo un approccio a due fasi. In primo luogo, estra-iamo spiegazioni dal modello GPT-4o per arricchire i dati di addestramento e perfezionare i VLM, potenziando le loro prestazioni CoT. In secondo luogo, applichiamo il reinforcement learning per calibrare ulteriormente la qualità del ragionamento. In particolare, costruiamo coppie positive (corrette) e negative (errate) di catene di ragionamento generate dal modello, confrontando le loro previsioni con le risposte brevi annotate. Utilizzando questi dati a coppie, applichiamo l'algoritmo di ottimizzazione delle preferenze dirette per perfezionare le capacità di ragionamento del modello. I nostri esperimenti dimostrano miglioramenti significativi nel ragionamento CoT su set di dati di riferimento e una migliore generalizzazione alla previsione diretta delle risposte. Questo lavoro sottolinea l'importanza di incorporare spiegazioni dettagliate nell'addestramento e di sfruttare il reinforcement learning per rafforzare le capacità di ragionamento dei VLM.
English
Chain-of-thought (CoT) reasoning in vision language models (VLMs) is crucial for improving interpretability and trustworthiness. However, current training recipes lack robust CoT reasoning data, relying on datasets dominated by short annotations with minimal rationales. In this work, we show that training VLM on short answers does not generalize well to reasoning tasks that require more detailed responses. To address this, we propose a two-fold approach. First, we distill rationales from GPT-4o model to enrich the training data and fine-tune VLMs, boosting their CoT performance. Second, we apply reinforcement learning to further calibrate reasoning quality. Specifically, we construct positive (correct) and negative (incorrect) pairs of model-generated reasoning chains, by comparing their predictions with annotated short answers. Using this pairwise data, we apply the Direct Preference Optimization algorithm to refine the model's reasoning abilities. Our experiments demonstrate significant improvements in CoT reasoning on benchmark datasets and better generalization to direct answer prediction as well. This work emphasizes the importance of incorporating detailed rationales in training and leveraging reinforcement learning to strengthen the reasoning capabilities of VLMs.

Summary

AI-Generated Summary

PDF272November 16, 2024