MIA-DPO: Otimização de Preferência Direta Aumentada de Múltiplas Imagens para Modelos de Visão e Linguagem de Grande EscalaMIA-DPO: Multi-Image Augmented Direct Preference Optimization For Large
Vision-Language Models
O alinhamento de preferência visual envolve treinar Modelos de Grande Visão-Linguagem (LVLMs) para prever preferências humanas entre entradas visuais. Isso é tipicamente alcançado usando conjuntos de dados rotulados de pares escolhidos/rejeitados e empregando algoritmos de otimização como a otimização direta de preferência (DPO). Métodos de alinhamento visual existentes, principalmente projetados para cenários de imagem única, têm dificuldade em lidar efetivamente com a complexidade de tarefas multi-imagem devido à escassez de dados de treinamento diversos e ao alto custo de anotar pares escolhidos/rejeitados. Apresentamos a Otimização Direta de Preferência Aumentada Multi-Imagem (MIA-DPO), uma abordagem de alinhamento de preferência visual que lida efetivamente com entradas multi-imagem. MIA-DPO mitiga a escassez de dados de treinamento multi-imagem diversos estendendo dados de imagem única com imagens não relacionadas dispostas em colagens de grade ou formatos de imagem em imagem, reduzindo significativamente os custos associados às anotações de dados multi-imagem. Nossa observação revela que os valores de atenção dos LVLMs variam consideravelmente entre diferentes imagens. Utilizamos valores de atenção para identificar e filtrar respostas rejeitadas nas quais o modelo pode ter se concentrado erroneamente. Nossa seleção consciente de atenção para construir os pares escolhidos/rejeitados sem depender de (i) anotação humana, (ii) dados extras e (iii) modelos ou APIs externos. MIA-DPO é compatível com várias arquiteturas e supera os métodos existentes em cinco benchmarks multi-imagem, alcançando um aumento médio de desempenho de 3,0% no LLaVA-v1.5 e 4,3% no recente InternLM-XC2.5. Além disso, MIA-DPO tem um efeito mínimo na capacidade do modelo de entender imagens únicas.