STAR-R1: Пространственное преобразование и рассуждение через усиление мультимодальных языковых моделей
STAR-R1: Spatial TrAnsformation Reasoning by Reinforcing Multimodal LLMs
May 21, 2025
Авторы: Zongzhao Li, Zongyang Ma, Mingze Li, Songyou Li, Yu Rong, Tingyang Xu, Ziqi Zhang, Deli Zhao, Wenbing Huang
cs.AI
Аннотация
Мультимодальные большие языковые модели (MLLMs) продемонстрировали впечатляющие способности в решении разнообразных задач, однако они значительно уступают людям в пространственном мышлении. Мы исследуем этот разрыв с помощью задачи Transformation-Driven Visual Reasoning (TVR), которая требует идентификации преобразований объектов на изображениях при изменении точек зрения. В то время как традиционная Supervised Fine-Tuning (SFT) не способна генерировать последовательные пути рассуждений в условиях смены ракурсов, обучение с подкреплением (RL) с разреженными наградами страдает от неэффективного исследования и медленной сходимости. Для преодоления этих ограничений мы предлагаем STAR-R1 — новый фреймворк, который объединяет одноэтапную парадигму RL с детализированным механизмом наград, адаптированным для TVR. В частности, STAR-R1 вознаграждает частичную правильность, одновременно наказывая за избыточное перечисление и пассивное бездействие, что позволяет эффективно исследовать и точно рассуждать. Комплексные оценки показывают, что STAR-R1 достигает наилучших результатов по всем 11 метрикам, превосходя SFT на 23% в сценариях с изменением ракурсов. Дополнительный анализ выявляет антропоморфное поведение STAR-R1 и подчеркивает его уникальную способность сравнивать все объекты для улучшения пространственного мышления. Наша работа предоставляет важные инсайты для продвижения исследований MLLMs и моделей рассуждений. Коды, веса модели и данные будут общедоступны по адресу https://github.com/zongzhao23/STAR-R1.
English
Multimodal Large Language Models (MLLMs) have demonstrated remarkable
capabilities across diverse tasks, yet they lag significantly behind humans in
spatial reasoning. We investigate this gap through Transformation-Driven Visual
Reasoning (TVR), a challenging task requiring identification of object
transformations across images under varying viewpoints. While traditional
Supervised Fine-Tuning (SFT) fails to generate coherent reasoning paths in
cross-view settings, sparse-reward Reinforcement Learning (RL) suffers from
inefficient exploration and slow convergence. To address these limitations, we
propose STAR-R1, a novel framework that integrates a single-stage RL paradigm
with a fine-grained reward mechanism tailored for TVR. Specifically, STAR-R1
rewards partial correctness while penalizing excessive enumeration and passive
inaction, enabling efficient exploration and precise reasoning. Comprehensive
evaluations demonstrate that STAR-R1 achieves state-of-the-art performance
across all 11 metrics, outperforming SFT by 23% in cross-view scenarios.
Further analysis reveals STAR-R1's anthropomorphic behavior and highlights its
unique ability to compare all objects for improving spatial reasoning. Our work
provides critical insights in advancing the research of MLLMs and reasoning
models. The codes, model weights, and data will be publicly available at
https://github.com/zongzhao23/STAR-R1.Summary
AI-Generated Summary