SymDPO: Impulsionando a Aprendizagem em Contexto de Modelos Multimodais Grandes com Otimização Direta de Preferência de Demonstração de Símbolos
SymDPO: Boosting In-Context Learning of Large Multimodal Models with Symbol Demonstration Direct Preference Optimization
November 17, 2024
Autores: Hongrui Jia, Chaoya Jiang, Haiyang Xu, Wei Ye, Mengfan Dong, Ming Yan, Ji Zhang, Fei Huang, Shikun Zhang
cs.AI
Resumo
À medida que os modelos de linguagem continuam a escalar, os Grandes Modelos de Linguagem (LLMs) têm demonstrado capacidades emergentes em Aprendizado em Contexto (ICL), permitindo-lhes resolver tarefas de linguagem ao prefixar algumas demonstrações em contexto (ICDs) como contexto. Inspirados por esses avanços, os pesquisadores estenderam essas técnicas para desenvolver Grandes Modelos Multimodais (LMMs) com capacidades de ICL. No entanto, os LMMs existentes enfrentam um problema crítico: frequentemente falham em aproveitar efetivamente o contexto visual em demonstrações multimodais e, em vez disso, simplesmente seguem padrões textuais. Isso indica que os LMMs não alcançam uma alinhamento eficaz entre as demonstrações multimodais e as saídas do modelo. Para resolver esse problema, propomos a Otimização de Preferência Direta de Demonstração de Símbolos (SymDPO). Especificamente, o SymDPO tem como objetivo quebrar o paradigma tradicional de construir demonstrações multimodais usando símbolos aleatórios para substituir respostas de texto dentro das instâncias. Isso força o modelo a entender cuidadosamente as imagens da demonstração e estabelecer uma relação entre as imagens e os símbolos para responder corretamente às perguntas. Validamos a eficácia deste método em múltiplos benchmarks, demonstrando que com o SymDPO, os LMMs podem entender de forma mais eficaz o contexto multimodal dentro dos exemplos e utilizar esse conhecimento para responder melhor às perguntas.
English
As language models continue to scale, Large Language Models (LLMs) have
exhibited emerging capabilities in In-Context Learning (ICL), enabling them to
solve language tasks by prefixing a few in-context demonstrations (ICDs) as
context. Inspired by these advancements, researchers have extended these
techniques to develop Large Multimodal Models (LMMs) with ICL capabilities.
However, existing LMMs face a critical issue: they often fail to effectively
leverage the visual context in multimodal demonstrations and instead simply
follow textual patterns. This indicates that LMMs do not achieve effective
alignment between multimodal demonstrations and model outputs. To address this
problem, we propose Symbol Demonstration Direct Preference Optimization
(SymDPO). Specifically, SymDPO aims to break the traditional paradigm of
constructing multimodal demonstrations by using random symbols to replace text
answers within instances. This forces the model to carefully understand the
demonstration images and establish a relationship between the images and the
symbols to answer questions correctly. We validate the effectiveness of this
method on multiple benchmarks, demonstrating that with SymDPO, LMMs can more
effectively understand the multimodal context within examples and utilize this
knowledge to answer questions better.Summary
AI-Generated Summary