ChatPaper.aiChatPaper

Spatial-SSRL: Verbesserung des räumlichen Verständnisses durch selbstüberwachtes bestärkendes Lernen

Spatial-SSRL: Enhancing Spatial Understanding via Self-Supervised Reinforcement Learning

October 31, 2025
papers.authors: Yuhong Liu, Beichen Zhang, Yuhang Zang, Yuhang Cao, Long Xing, Xiaoyi Dong, Haodong Duan, Dahua Lin, Jiaqi Wang
cs.AI

papers.abstract

Das räumliche Verständnis bleibt eine Schwachstelle großer visuell-sprachlicher Modelle (LVLMs). Bestehende Supervised-Fine-Tuning (SFT)- und neuere Reinforcement-Learning-with-Verifiable-Rewards (RLVR)-Pipelines sind von kostspieliger Supervision, spezialisierten Tools oder eingeschränkten Umgebungen abhängig, die die Skalierbarkeit begrenzen. Wir stellen Spatial-SSRL vor, ein selbstüberwachtes RL-Paradigma, das verifizierbare Signale direkt aus gewöhnlichen RGB- oder RGB-D-Bildern ableitet. Spatial-SSRL formuliert automatisch fünf Pretext-Aufgaben, die 2D- und 3D-Raumstrukturen erfassen: Neuanordnung verwürfelter Bildbereiche, Erkennung gespiegelter Bildbereiche, Inpainting ausgeschnittener Bildbereiche, Tiefenreihenfolge von Regionen und Vorhersage relativer 3D-Positionen. Diese Aufgaben liefern Ground-Truth-Antworten, die einfach zu verifizieren sind und keine menschliche oder LVLM-Annotation erfordern. Das Training mit unseren Aufgaben verbessert das räumliche Schlussfolgern erheblich, während die allgemeinen visuellen Fähigkeiten erhalten bleiben. Auf sieben Benchmarks für räumliches Verständnis in Bild- und Video-Szenarien erzielt Spatial-SSRL durchschnittliche Genauigkeitssteigerungen von 4,63 % (3B) und 3,89 % (7B) gegenüber den Qwen2.5-VL-Baselines. Unsere Ergebnisse zeigen, dass einfache, intrinsische Supervision RLVR in großem Maßstab ermöglicht und einen praktischen Weg zu stärkerer räumlicher Intelligenz in LVLMs bietet.
English
Spatial understanding remains a weakness of Large Vision-Language Models (LVLMs). Existing supervised fine-tuning (SFT) and recent reinforcement learning with verifiable rewards (RLVR) pipelines depend on costly supervision, specialized tools, or constrained environments that limit scale. We introduce Spatial-SSRL, a self-supervised RL paradigm that derives verifiable signals directly from ordinary RGB or RGB-D images. Spatial-SSRL automatically formulates five pretext tasks that capture 2D and 3D spatial structure: shuffled patch reordering, flipped patch recognition, cropped patch inpainting, regional depth ordering, and relative 3D position prediction. These tasks provide ground-truth answers that are easy to verify and require no human or LVLM annotation. Training on our tasks substantially improves spatial reasoning while preserving general visual capabilities. On seven spatial understanding benchmarks in both image and video settings, Spatial-SSRL delivers average accuracy gains of 4.63% (3B) and 3.89% (7B) over the Qwen2.5-VL baselines. Our results show that simple, intrinsic supervision enables RLVR at scale and provides a practical route to stronger spatial intelligence in LVLMs.
PDF271December 2, 2025