ChatPaper.aiChatPaper

Больше размышлений, меньше точности? О двойственной природе рассуждений в моделях "зрение-язык"

More Thought, Less Accuracy? On the Dual Nature of Reasoning in Vision-Language Models

September 30, 2025
Авторы: Xinyu Tian, Shu Zou, Zhaoyuan Yang, Mengqi He, Fabian Waschkowski, Lukas Wesemann, Peter Tu, Jing Zhang
cs.AI

Аннотация

Рассуждения стали ключевой способностью в больших языковых моделях (LLM). Благодаря обучению с подкреплением (RL), в частности, оптимизации групповой относительной политики (GRPO), эти модели способны решать сложные задачи, такие как математика и генерация кода. Опираясь на эти достижения, недавние исследования стремились расширить способность рассуждений на визуально-языковые модели (VLM), демонстрируя многообещающие результаты в различных визуальных задачах. Однако, несмотря на этот прогресс, наше исследование выявляет двойственную природу мультимодальных рассуждений: хотя они значительно улучшают логический вывод и способствуют решению сложных проблем, они могут постепенно ухудшать восприятие, приводя к ошибкам распознавания в, казалось бы, простых визуальных вопросах. Дальнейший анализ позволяет нам связать это явление с визуальным забыванием, при котором длительные рассуждения заставляют модель всё больше игнорировать визуальные данные. Для решения этой проблемы мы предлагаем оптимизацию политики с визуальной привязкой (VAPO) — простой, но эффективный метод, который явно направляет процесс рассуждений на визуально обоснованные траектории. Наша итоговая модель, VAPO-Thinker-7B, значительно усиливает зависимость модели от визуальной информации и устанавливает новые рекорды на широком спектре общепризнанных тестов. Страница проекта: https://xytian1008.github.io/VAPO/
English
Reasoning has emerged as a pivotal capability in Large Language Models (LLMs). Through Reinforcement Learning (RL), typically Group Relative Policy Optimization (GRPO), these models are able to solve complex tasks such as mathematics and code generation. Building on these advances, recent research has sought to extend reasoning to Vision-Language Models (VLMs), yielding promising results across diverse visual tasks. Despite this progress, our study uncovers the dual nature of multimodal reasoning: while it substantially enhances logical inference and facilitates performance on challenging problems, it may gradually impair perceptual grounding, leading to recognition failures on otherwise basic visual questions. Through further analysis, we attribute this phenomenon to visual forgetting, wherein prolonged reasoning causes the model to increasingly disregard visual input. To address this, we propose Vision-Anchored Policy Optimization (VAPO), a simple yet effective method that explicitly steers the reasoning process toward visually grounded trajectories. Our result model, VAPO-Thinker-7B, significantly strengthens the model's reliance on visual information and achieves new state-of-the-art results on a wide range of established benchmarks. Project page: https://xytian1008.github.io/VAPO/
PDF281October 1, 2025