ChatPaper.aiChatPaper

mDPO: Ottimizzazione Condizionale delle Preferenze per Modelli Linguistici Multimodali di Grande Scala

mDPO: Conditional Preference Optimization for Multimodal Large Language Models

June 17, 2024
Autori: Fei Wang, Wenxuan Zhou, James Y. Huang, Nan Xu, Sheng Zhang, Hoifung Poon, Muhao Chen
cs.AI

Abstract

L'ottimizzazione diretta delle preferenze (DPO) si è dimostrata un metodo efficace per l'allineamento dei modelli linguistici di grandi dimensioni (LLM). Recenti lavori hanno tentato di applicare la DPO a scenari multimodali, ma hanno riscontrato difficoltà nel raggiungere miglioramenti consistenti. Attraverso un esperimento comparativo, abbiamo identificato il problema della preferenza incondizionata nell'ottimizzazione delle preferenze multimodali, in cui il modello trascura la condizione dell'immagine. Per affrontare questo problema, proponiamo mDPO, un obiettivo DPO multimodale che previene la sovrapprioritizzazione delle preferenze basate solo sul linguaggio ottimizzando anche la preferenza per le immagini. Inoltre, introduciamo un'ancora di ricompensa che forza la ricompensa ad essere positiva per le risposte scelte, evitando così la diminuzione della loro probabilità — un problema intrinseco dell'ottimizzazione relativa delle preferenze. Esperimenti condotti su due LLM multimodali di dimensioni diverse e su tre benchmark ampiamente utilizzati dimostrano che mDPO affronta efficacemente il problema della preferenza incondizionata nell'ottimizzazione delle preferenze multimodali e migliora significativamente le prestazioni del modello, in particolare nella riduzione delle allucinazioni.
English
Direct preference optimization (DPO) has shown to be an effective method for large language model (LLM) alignment. Recent works have attempted to apply DPO to multimodal scenarios but have found it challenging to achieve consistent improvement. Through a comparative experiment, we identify the unconditional preference problem in multimodal preference optimization, where the model overlooks the image condition. To address this problem, we propose mDPO, a multimodal DPO objective that prevents the over-prioritization of language-only preferences by also optimizing image preference. Moreover, we introduce a reward anchor that forces the reward to be positive for chosen responses, thereby avoiding the decrease in their likelihood -- an intrinsic problem of relative preference optimization. Experiments on two multimodal LLMs of different sizes and three widely used benchmarks demonstrate that mDPO effectively addresses the unconditional preference problem in multimodal preference optimization and significantly improves model performance, particularly in reducing hallucination.
PDF401February 8, 2026