mDPO: Optimización Condicional de Preferencias para Modelos de Lenguaje Multimodales a Gran Escala
mDPO: Conditional Preference Optimization for Multimodal Large Language Models
June 17, 2024
Autores: Fei Wang, Wenxuan Zhou, James Y. Huang, Nan Xu, Sheng Zhang, Hoifung Poon, Muhao Chen
cs.AI
Resumen
La optimización directa de preferencias (DPO, por sus siglas en inglés) ha demostrado ser un método efectivo para la alineación de modelos de lenguaje de gran escala (LLM). Trabajos recientes han intentado aplicar DPO a escenarios multimodales, pero han encontrado dificultades para lograr mejoras consistentes. Mediante un experimento comparativo, identificamos el problema de preferencia incondicional en la optimización de preferencias multimodales, donde el modelo pasa por alto la condición de la imagen. Para abordar este problema, proponemos mDPO, un objetivo DPO multimodal que evita la priorización excesiva de preferencias basadas únicamente en el lenguaje al optimizar también la preferencia de la imagen. Además, introducimos un anclaje de recompensa que fuerza a que la recompensa sea positiva para las respuestas seleccionadas, evitando así la disminución de su probabilidad, un problema intrínseco de la optimización de preferencias relativas. Los experimentos realizados en dos LLM multimodales de diferentes tamaños y tres puntos de referencia ampliamente utilizados demuestran que mDPO aborda efectivamente el problema de preferencia incondicional en la optimización de preferencias multimodales y mejora significativamente el rendimiento del modelo, particularmente en la reducción de alucinaciones.
English
Direct preference optimization (DPO) has shown to be an effective method for
large language model (LLM) alignment. Recent works have attempted to apply DPO
to multimodal scenarios but have found it challenging to achieve consistent
improvement. Through a comparative experiment, we identify the unconditional
preference problem in multimodal preference optimization, where the model
overlooks the image condition. To address this problem, we propose mDPO, a
multimodal DPO objective that prevents the over-prioritization of language-only
preferences by also optimizing image preference. Moreover, we introduce a
reward anchor that forces the reward to be positive for chosen responses,
thereby avoiding the decrease in their likelihood -- an intrinsic problem of
relative preference optimization. Experiments on two multimodal LLMs of
different sizes and three widely used benchmarks demonstrate that mDPO
effectively addresses the unconditional preference problem in multimodal
preference optimization and significantly improves model performance,
particularly in reducing hallucination.Summary
AI-Generated Summary