mDPO: Otimização de Preferências Condicionais para Modelos de Linguagem Multimodais de Grande Escala
mDPO: Conditional Preference Optimization for Multimodal Large Language Models
June 17, 2024
Autores: Fei Wang, Wenxuan Zhou, James Y. Huang, Nan Xu, Sheng Zhang, Hoifung Poon, Muhao Chen
cs.AI
Resumo
A otimização direta de preferências (DPO, na sigla em inglês) tem se mostrado um método eficaz para o alinhamento de modelos de linguagem de grande escala (LLMs). Trabalhos recentes tentaram aplicar a DPO em cenários multimodais, mas encontraram dificuldades em alcançar melhorias consistentes. Por meio de um experimento comparativo, identificamos o problema de preferência incondicional na otimização de preferências multimodais, onde o modelo ignora a condição da imagem. Para resolver esse problema, propomos o mDPO, um objetivo de DPO multimodal que evita a priorização excessiva de preferências baseadas apenas em texto, otimizando também a preferência por imagens. Além disso, introduzimos uma âncora de recompensa que força a recompensa a ser positiva para respostas escolhidas, evitando assim a diminuição de sua probabilidade — um problema intrínseco da otimização de preferências relativas. Experimentos realizados em dois LLMs multimodais de tamanhos diferentes e três benchmarks amplamente utilizados demonstram que o mDPO resolve efetivamente o problema de preferência incondicional na otimização de preferências multimodais e melhora significativamente o desempenho do modelo, particularmente na redução de alucinações.
English
Direct preference optimization (DPO) has shown to be an effective method for
large language model (LLM) alignment. Recent works have attempted to apply DPO
to multimodal scenarios but have found it challenging to achieve consistent
improvement. Through a comparative experiment, we identify the unconditional
preference problem in multimodal preference optimization, where the model
overlooks the image condition. To address this problem, we propose mDPO, a
multimodal DPO objective that prevents the over-prioritization of language-only
preferences by also optimizing image preference. Moreover, we introduce a
reward anchor that forces the reward to be positive for chosen responses,
thereby avoiding the decrease in their likelihood -- an intrinsic problem of
relative preference optimization. Experiments on two multimodal LLMs of
different sizes and three widely used benchmarks demonstrate that mDPO
effectively addresses the unconditional preference problem in multimodal
preference optimization and significantly improves model performance,
particularly in reducing hallucination.