ChatPaper.aiChatPaper

InternLM-XComposer2.5-Reward: Um Modelo de Recompensa Multi-Modal Simples, porém Eficaz

InternLM-XComposer2.5-Reward: A Simple Yet Effective Multi-Modal Reward Model

January 21, 2025
Autores: Yuhang Zang, Xiaoyi Dong, Pan Zhang, Yuhang Cao, Ziyu Liu, Shengyuan Ding, Shenxi Wu, Yubo Ma, Haodong Duan, Wenwei Zhang, Kai Chen, Dahua Lin, Jiaqi Wang
cs.AI

Resumo

Apesar do desempenho promissor dos Grandes Modelos de Linguagem Visual (LVLMs) na compreensão visual, ocasionalmente geram saídas incorretas. Enquanto modelos de recompensa (RMs) com aprendizado por reforço ou escalonamento no momento do teste oferecem o potencial para melhorar a qualidade da geração, uma lacuna crítica permanece: os RMs multimodais publicamente disponíveis para LVLMs são escassos, e os detalhes de implementação dos modelos proprietários frequentemente são obscuros. Nós preenchemos essa lacuna com o InternLM-XComposer2.5-Reward (IXC-2.5-Reward), um modelo de recompensa multimodal simples, porém eficaz, que alinha LVLMs com preferências humanas. Para garantir a robustez e versatilidade do IXC-2.5-Reward, estabelecemos um corpus de preferência multimodal de alta qualidade abrangendo entradas de texto, imagem e vídeo em diversos domínios, como seguir instruções, compreensão geral, documentos ricos em texto, raciocínio matemático e compreensão de vídeo. O IXC-2.5-Reward alcança excelentes resultados no último benchmark de modelos de recompensa multimodais e mostra desempenho competitivo nos benchmarks de modelos de recompensa apenas de texto. Demonstramos ainda três aplicações-chave do IXC-2.5-Reward: (1) Fornecer um sinal de supervisão para o treinamento de RL. Integrar o IXC-2.5-Reward com a Otimização de Política Proximal (PPO) resulta no IXC-2.5-Chat, que apresenta melhorias consistentes no seguimento de instruções e diálogo multimodal aberto; (2) Selecionar a melhor resposta dentre as respostas candidatas para escalonamento no momento do teste; e (3) Filtrar amostras atípicas ou ruidosas dos dados de treinamento existentes de ajuste de instruções de imagem e vídeo. Para garantir a reprodutibilidade e facilitar pesquisas futuras, disponibilizamos todos os pesos do modelo e receitas de treinamento em código aberto em https://github.com/InternLM/InternLM-XComposer.
English
Despite the promising performance of Large Vision Language Models (LVLMs) in visual understanding, they occasionally generate incorrect outputs. While reward models (RMs) with reinforcement learning or test-time scaling offer the potential for improving generation quality, a critical gap remains: publicly available multi-modal RMs for LVLMs are scarce, and the implementation details of proprietary models are often unclear. We bridge this gap with InternLM-XComposer2.5-Reward (IXC-2.5-Reward), a simple yet effective multi-modal reward model that aligns LVLMs with human preferences. To ensure the robustness and versatility of IXC-2.5-Reward, we set up a high-quality multi-modal preference corpus spanning text, image, and video inputs across diverse domains, such as instruction following, general understanding, text-rich documents, mathematical reasoning, and video understanding. IXC-2.5-Reward achieves excellent results on the latest multi-modal reward model benchmark and shows competitive performance on text-only reward model benchmarks. We further demonstrate three key applications of IXC-2.5-Reward: (1) Providing a supervisory signal for RL training. We integrate IXC-2.5-Reward with Proximal Policy Optimization (PPO) yields IXC-2.5-Chat, which shows consistent improvements in instruction following and multi-modal open-ended dialogue; (2) Selecting the best response from candidate responses for test-time scaling; and (3) Filtering outlier or noisy samples from existing image and video instruction tuning training data. To ensure reproducibility and facilitate further research, we have open-sourced all model weights and training recipes at https://github.com/InternLM/InternLM-XComposer

Summary

AI-Generated Summary

PDF463January 22, 2025