ChatPaper.aiChatPaper

mDPO: Conditionele Voorkeursoptimalisatie voor Multimodale Grote Taalmodellen

mDPO: Conditional Preference Optimization for Multimodal Large Language Models

June 17, 2024
Auteurs: Fei Wang, Wenxuan Zhou, James Y. Huang, Nan Xu, Sheng Zhang, Hoifung Poon, Muhao Chen
cs.AI

Samenvatting

Direct preference optimization (DPO) heeft zich bewezen als een effectieve methode voor het afstemmen van grote taalmodelen (LLM's). Recente studies hebben geprobeerd DPO toe te passen op multimodale scenario's, maar het bleek lastig om consistente verbeteringen te bereiken. Door middel van een vergelijkend experiment identificeren we het onvoorwaardelijke voorkeursprobleem in multimodale voorkeursoptimalisatie, waarbij het model de beeldconditie over het hoofd ziet. Om dit probleem aan te pakken, stellen we mDPO voor, een multimodale DPO-doelstelling die voorkomt dat taalvoorkeuren te veel prioriteit krijgen door ook beeldvoorkeuren te optimaliseren. Bovendien introduceren we een beloningsanker dat ervoor zorgt dat de beloning positief is voor gekozen antwoorden, waardoor een afname in hun waarschijnlijkheid wordt voorkomen — een intrinsiek probleem van relatieve voorkeursoptimalisatie. Experimenten met twee multimodale LLM's van verschillende grootte en drie veelgebruikte benchmarks tonen aan dat mDPO het onvoorwaardelijke voorkeursprobleem in multimodale voorkeursoptimalisatie effectief aanpakt en de modelprestaties aanzienlijk verbetert, met name in het verminderen van hallucinaties.
English
Direct preference optimization (DPO) has shown to be an effective method for large language model (LLM) alignment. Recent works have attempted to apply DPO to multimodal scenarios but have found it challenging to achieve consistent improvement. Through a comparative experiment, we identify the unconditional preference problem in multimodal preference optimization, where the model overlooks the image condition. To address this problem, we propose mDPO, a multimodal DPO objective that prevents the over-prioritization of language-only preferences by also optimizing image preference. Moreover, we introduce a reward anchor that forces the reward to be positive for chosen responses, thereby avoiding the decrease in their likelihood -- an intrinsic problem of relative preference optimization. Experiments on two multimodal LLMs of different sizes and three widely used benchmarks demonstrate that mDPO effectively addresses the unconditional preference problem in multimodal preference optimization and significantly improves model performance, particularly in reducing hallucination.
PDF401February 8, 2026