ChatPaper.aiChatPaper

mDPO: Optimización Condicional de Preferencias para Modelos de Lenguaje Multimodales a Gran Escala

mDPO: Conditional Preference Optimization for Multimodal Large Language Models

June 17, 2024
Autores: Fei Wang, Wenxuan Zhou, James Y. Huang, Nan Xu, Sheng Zhang, Hoifung Poon, Muhao Chen
cs.AI

Resumen

La optimización directa de preferencias (DPO, por sus siglas en inglés) ha demostrado ser un método efectivo para la alineación de modelos de lenguaje de gran escala (LLM). Trabajos recientes han intentado aplicar DPO a escenarios multimodales, pero han encontrado dificultades para lograr mejoras consistentes. Mediante un experimento comparativo, identificamos el problema de preferencia incondicional en la optimización de preferencias multimodales, donde el modelo pasa por alto la condición de la imagen. Para abordar este problema, proponemos mDPO, un objetivo DPO multimodal que evita la priorización excesiva de preferencias basadas únicamente en el lenguaje al optimizar también la preferencia de la imagen. Además, introducimos un anclaje de recompensa que fuerza a que la recompensa sea positiva para las respuestas seleccionadas, evitando así la disminución de su probabilidad, un problema intrínseco de la optimización de preferencias relativas. Los experimentos realizados en dos LLM multimodales de diferentes tamaños y tres puntos de referencia ampliamente utilizados demuestran que mDPO aborda efectivamente el problema de preferencia incondicional en la optimización de preferencias multimodales y mejora significativamente el rendimiento del modelo, particularmente en la reducción de alucinaciones.
English
Direct preference optimization (DPO) has shown to be an effective method for large language model (LLM) alignment. Recent works have attempted to apply DPO to multimodal scenarios but have found it challenging to achieve consistent improvement. Through a comparative experiment, we identify the unconditional preference problem in multimodal preference optimization, where the model overlooks the image condition. To address this problem, we propose mDPO, a multimodal DPO objective that prevents the over-prioritization of language-only preferences by also optimizing image preference. Moreover, we introduce a reward anchor that forces the reward to be positive for chosen responses, thereby avoiding the decrease in their likelihood -- an intrinsic problem of relative preference optimization. Experiments on two multimodal LLMs of different sizes and three widely used benchmarks demonstrate that mDPO effectively addresses the unconditional preference problem in multimodal preference optimization and significantly improves model performance, particularly in reducing hallucination.

Summary

AI-Generated Summary

PDF391December 6, 2024