ChatPaper.aiChatPaper

CapRL: Развитие способностей к генерации плотных описаний изображений с помощью обучения с подкреплением

CapRL: Stimulating Dense Image Caption Capabilities via Reinforcement Learning

September 26, 2025
Авторы: Long Xing, Xiaoyi Dong, Yuhang Zang, Yuhang Cao, Jianze Liang, Qidong Huang, Jiaqi Wang, Feng Wu, Dahua Lin
cs.AI

Аннотация

Генерация подписей к изображениям — это фундаментальная задача, которая связывает визуальную и языковую области, играя ключевую роль в предварительном обучении крупных визуально-языковых моделей (LVLMs). Современные модели генерации подписей обычно обучаются с использованием метода Supervised Fine-Tuning (SFT), который опирается на дорогостоящие и не масштабируемые данные, аннотированные людьми или проприетарными моделями. Такой подход часто приводит к тому, что модели запоминают конкретные правильные ответы, что ограничивает их обобщающую способность и возможность создавать разнообразные и креативные описания. Чтобы преодолеть ограничения SFT, мы предлагаем применить парадигму Reinforcement Learning with Verifiable Rewards (RLVR) к открытой задаче генерации подписей к изображениям. Однако основная сложность заключается в разработке объективной функции вознаграждения для субъективной природы того, что считается "хорошей" подписью. Мы представляем Captioning Reinforcement Learning (CapRL) — новый фреймворк обучения, который переопределяет качество подписи через её полезность: качественная подпись должна позволять невизуальной языковой модели точно отвечать на вопросы о соответствующем изображении. CapRL использует двухэтапный декомпозированный процесс, в котором LVLM генерирует подпись, а объективное вознаграждение вычисляется на основе точности отдельной, не использующей визуальные данные LLM, отвечающей на вопросы с множественным выбором, основываясь исключительно на этой подписи. Будучи первым исследованием, применяющим RLVR к субъективной задаче генерации подписей, мы демонстрируем, что CapRL значительно улучшает результаты в различных настройках. Предварительное обучение на наборе данных CapRL-5M, аннотированном с помощью CapRL-3B, приводит к существенному улучшению на 12 бенчмарках. Более того, в рамках Prism Framework для оценки качества подписей CapRL достигает производительности, сопоставимой с Qwen2.5-VL-72B, при этом превосходя базовый уровень в среднем на 8,4%. Код доступен по ссылке: https://github.com/InternLM/CapRL.
English
Image captioning is a fundamental task that bridges the visual and linguistic domains, playing a critical role in pre-training Large Vision-Language Models (LVLMs). Current state-of-the-art captioning models are typically trained with Supervised Fine-Tuning (SFT), a paradigm that relies on expensive, non-scalable data annotated by humans or proprietary models. This approach often leads to models that memorize specific ground-truth answers, limiting their generality and ability to generate diverse, creative descriptions. To overcome the limitation of SFT, we propose applying the Reinforcement Learning with Verifiable Rewards (RLVR) paradigm to the open-ended task of image captioning. A primary challenge, however, is designing an objective reward function for the inherently subjective nature of what constitutes a "good" caption. We introduce Captioning Reinforcement Learning (CapRL), a novel training framework that redefines caption quality through its utility: a high-quality caption should enable a non-visual language model to accurately answer questions about the corresponding image. CapRL employs a decoupled two-stage pipeline where an LVLM generates a caption, and the objective reward is derived from the accuracy of a separate, vision-free LLM answering Multiple-Choice Questions based solely on that caption. As the first study to apply RLVR to the subjective image captioning task, we demonstrate that CapRL significantly enhances multiple settings. Pretraining on the CapRL-5M caption dataset annotated by CapRL-3B results in substantial gains across 12 benchmarks. Moreover, within the Prism Framework for caption quality evaluation, CapRL achieves performance comparable to Qwen2.5-VL-72B, while exceeding the baseline by an average margin of 8.4%. Code is available here: https://github.com/InternLM/CapRL.
PDF302September 29, 2025