ChatPaper.aiChatPaper

mDPO: Otimização de Preferências Condicionais para Modelos de Linguagem Multimodais de Grande Escala

mDPO: Conditional Preference Optimization for Multimodal Large Language Models

June 17, 2024
Autores: Fei Wang, Wenxuan Zhou, James Y. Huang, Nan Xu, Sheng Zhang, Hoifung Poon, Muhao Chen
cs.AI

Resumo

A otimização direta de preferências (DPO, na sigla em inglês) tem se mostrado um método eficaz para o alinhamento de modelos de linguagem de grande escala (LLMs). Trabalhos recentes tentaram aplicar a DPO em cenários multimodais, mas encontraram dificuldades em alcançar melhorias consistentes. Por meio de um experimento comparativo, identificamos o problema de preferência incondicional na otimização de preferências multimodais, onde o modelo ignora a condição da imagem. Para resolver esse problema, propomos o mDPO, um objetivo de DPO multimodal que evita a priorização excessiva de preferências baseadas apenas em texto, otimizando também a preferência por imagens. Além disso, introduzimos uma âncora de recompensa que força a recompensa a ser positiva para respostas escolhidas, evitando assim a diminuição de sua probabilidade — um problema intrínseco da otimização de preferências relativas. Experimentos realizados em dois LLMs multimodais de tamanhos diferentes e três benchmarks amplamente utilizados demonstram que o mDPO resolve efetivamente o problema de preferência incondicional na otimização de preferências multimodais e melhora significativamente o desempenho do modelo, particularmente na redução de alucinações.
English
Direct preference optimization (DPO) has shown to be an effective method for large language model (LLM) alignment. Recent works have attempted to apply DPO to multimodal scenarios but have found it challenging to achieve consistent improvement. Through a comparative experiment, we identify the unconditional preference problem in multimodal preference optimization, where the model overlooks the image condition. To address this problem, we propose mDPO, a multimodal DPO objective that prevents the over-prioritization of language-only preferences by also optimizing image preference. Moreover, we introduce a reward anchor that forces the reward to be positive for chosen responses, thereby avoiding the decrease in their likelihood -- an intrinsic problem of relative preference optimization. Experiments on two multimodal LLMs of different sizes and three widely used benchmarks demonstrate that mDPO effectively addresses the unconditional preference problem in multimodal preference optimization and significantly improves model performance, particularly in reducing hallucination.
PDF391December 6, 2024