ChatPaper.aiChatPaper

mDPO: Konditionale Präferenzoptimierung für multimodale große Sprachmodelle

mDPO: Conditional Preference Optimization for Multimodal Large Language Models

June 17, 2024
Autoren: Fei Wang, Wenxuan Zhou, James Y. Huang, Nan Xu, Sheng Zhang, Hoifung Poon, Muhao Chen
cs.AI

Zusammenfassung

Die direkte Präferenzoptimierung (DPO) hat sich als eine effektive Methode zur Ausrichtung großer Sprachmodelle (LLM) erwiesen. In jüngsten Arbeiten wurde versucht, DPO auf multimodale Szenarien anzuwenden, jedoch stellte sich heraus, dass es herausfordernd ist, konsistente Verbesserungen zu erzielen. Durch ein vergleichendes Experiment identifizieren wir das bedingungslose Präferenzproblem in der multimodalen Präferenzoptimierung, bei der das Modell die Bildbedingung übersieht. Um dieses Problem zu lösen, schlagen wir mDPO vor, ein multimodales DPO-Ziel, das die Überpriorisierung von ausschließlich sprachlichen Präferenzen verhindert, indem es auch die Bildpräferenz optimiert. Darüber hinaus führen wir einen Belohnungsanker ein, der die Belohnung für ausgewählte Antworten positiv erzwingt, um so das Absinken ihrer Wahrscheinlichkeit zu vermeiden - ein inhärentes Problem der relativen Präferenzoptimierung. Experimente mit zwei multimodalen LLMs unterschiedlicher Größe und drei weit verbreiteten Benchmarks zeigen, dass mDPO das bedingungslose Präferenzproblem in der multimodalen Präferenzoptimierung effektiv angeht und die Leistung des Modells signifikant verbessert, insbesondere bei der Reduzierung von Halluzinationen.
English
Direct preference optimization (DPO) has shown to be an effective method for large language model (LLM) alignment. Recent works have attempted to apply DPO to multimodal scenarios but have found it challenging to achieve consistent improvement. Through a comparative experiment, we identify the unconditional preference problem in multimodal preference optimization, where the model overlooks the image condition. To address this problem, we propose mDPO, a multimodal DPO objective that prevents the over-prioritization of language-only preferences by also optimizing image preference. Moreover, we introduce a reward anchor that forces the reward to be positive for chosen responses, thereby avoiding the decrease in their likelihood -- an intrinsic problem of relative preference optimization. Experiments on two multimodal LLMs of different sizes and three widely used benchmarks demonstrate that mDPO effectively addresses the unconditional preference problem in multimodal preference optimization and significantly improves model performance, particularly in reducing hallucination.

Summary

AI-Generated Summary

PDF391December 6, 2024