ChatPaper.aiChatPaper

SymDPO: Усиление контекстного обучения больших мультимодальных моделей с оптимизацией прямых предпочтений символов.

SymDPO: Boosting In-Context Learning of Large Multimodal Models with Symbol Demonstration Direct Preference Optimization

November 17, 2024
Авторы: Hongrui Jia, Chaoya Jiang, Haiyang Xu, Wei Ye, Mengfan Dong, Ming Yan, Ji Zhang, Fei Huang, Shikun Zhang
cs.AI

Аннотация

По мере масштабирования языковых моделей, Большие Языковые Модели (LLM) проявляют возрастающие возможности в Обучении в Контексте (ICL), что позволяет им решать языковые задачи, добавляя несколько демонстраций в контексте (ICD) в качестве контекста. Вдохновленные этими достижениями, исследователи расширили эти техники для разработки Больших Мультимодальных Моделей (LMM) с возможностями ICL. Однако существующие LMM сталкиваются с критической проблемой: они часто не могут эффективно использовать визуальный контекст в мультимодальных демонстрациях и вместо этого просто следуют текстовым шаблонам. Это указывает на то, что LMM не достигают эффективного соответствия между мультимодальными демонстрациями и выходами модели. Для решения этой проблемы мы предлагаем Оптимизацию Прямого Предпочтения Символов в Демонстрациях (SymDPO). Конкретно, SymDPO нацелено на изменение традиционной парадигмы построения мультимодальных демонстраций путем замены текстовых ответов в примерах случайными символами. Это заставляет модель внимательно понимать изображения демонстрации и устанавливать связь между изображениями и символами для правильного ответа на вопросы. Мы подтверждаем эффективность этого метода на нескольких бенчмарках, показывая, что с SymDPO LMM могут более эффективно понимать мультимодальный контекст в примерах и использовать это знание для лучшего ответа на вопросы.
English
As language models continue to scale, Large Language Models (LLMs) have exhibited emerging capabilities in In-Context Learning (ICL), enabling them to solve language tasks by prefixing a few in-context demonstrations (ICDs) as context. Inspired by these advancements, researchers have extended these techniques to develop Large Multimodal Models (LMMs) with ICL capabilities. However, existing LMMs face a critical issue: they often fail to effectively leverage the visual context in multimodal demonstrations and instead simply follow textual patterns. This indicates that LMMs do not achieve effective alignment between multimodal demonstrations and model outputs. To address this problem, we propose Symbol Demonstration Direct Preference Optimization (SymDPO). Specifically, SymDPO aims to break the traditional paradigm of constructing multimodal demonstrations by using random symbols to replace text answers within instances. This forces the model to carefully understand the demonstration images and establish a relationship between the images and the symbols to answer questions correctly. We validate the effectiveness of this method on multiple benchmarks, demonstrating that with SymDPO, LMMs can more effectively understand the multimodal context within examples and utilize this knowledge to answer questions better.

Summary

AI-Generated Summary

PDF113November 21, 2024