Critic-V: Los críticos de VLM ayudan a detectar errores de VLM en el razonamiento multimodal.Critic-V: VLM Critics Help Catch VLM Errors in Multimodal Reasoning
Los modelos de visión-lenguaje (VLMs) han demostrado avances notables en tareas de razonamiento multimodal. Sin embargo, a menudo generan respuestas inexactas o irrelevantes debido a problemas como comprensiones de imágenes alucinadas o caminos de razonamiento poco refinados. Para abordar estos desafíos, presentamos Critic-V, un marco novedoso inspirado en el paradigma Actor-Critic para potenciar la capacidad de razonamiento de los VLMs. Este marco desacopla el proceso de razonamiento y el proceso crítico al integrar dos componentes independientes: el Razonador, que genera caminos de razonamiento basados en entradas visuales y textuales, y el Crítico, que ofrece críticas constructivas para refinar estos caminos. En este enfoque, el Razonador genera respuestas de razonamiento según indicaciones de texto, que pueden evolucionar de manera iterativa como una política basada en retroalimentación del Crítico. Este proceso de interacción se basó teóricamente en un marco de aprendizaje por refuerzo donde el Crítico ofrece críticas en lenguaje natural en lugar de recompensas escalares, permitiendo una retroalimentación más matizada para potenciar la capacidad del Razonador en tareas de razonamiento complejas. El modelo Crítico se entrena utilizando Optimización de Preferencias Directas (DPO), aprovechando un conjunto de datos de preferencias de críticas clasificadas por Recompensa Basada en Reglas (RBR) para mejorar sus capacidades críticas. Los resultados de evaluación muestran que el marco Critic-V supera significativamente a los métodos existentes, incluido GPT-4V, en 5 de 8 pruebas, especialmente en cuanto a precisión y eficiencia de razonamiento. Combinar una política dinámica basada en texto para el Razonador y la retroalimentación constructiva del Crítico optimizado por preferencias permite un proceso de razonamiento multimodal más confiable y sensible al contexto. Nuestro enfoque ofrece una solución prometedora para mejorar la confiabilidad de los VLMs, mejorando su rendimiento en aplicaciones multimodales del mundo real con un fuerte componente de razonamiento, como la conducción autónoma y la inteligencia incorporada.