ChatPaper.aiChatPaper

SSR: Verbesserung der Tiefenwahrnehmung in Vision-Sprach-Modellen durch rationalegeleitetes räumliches Denken

SSR: Enhancing Depth Perception in Vision-Language Models via Rationale-Guided Spatial Reasoning

May 18, 2025
Autoren: Yang Liu, Ming Ma, Xiaomin Yu, Pengxiang Ding, Han Zhao, Mingyang Sun, Siteng Huang, Donglin Wang
cs.AI

Zusammenfassung

Trotz beeindruckender Fortschritte bei Visual-Language-Modellen (VLMs) für multimodale Aufgaben beschränkt deren Abhängigkeit von RGB-Eingaben das präzise räumliche Verständnis. Bestehende Methoden zur Integration räumlicher Hinweise, wie Punktwolken oder Tiefeninformationen, erfordern entweder spezialisierte Sensoren oder scheitern daran, Tiefeninformationen effektiv für höherwertige Schlussfolgerungen zu nutzen. Zu diesem Zweck schlagen wir eine neuartige Methode zur räumlichen Wahrnehmung und Schlussfolgerung vor, genannt SSR, ein neuartiges Framework, das Roh-Tiefendaten in strukturierte, interpretierbare textuelle Begründungen transformiert. Diese textuellen Begründungen dienen als aussagekräftige Zwischenrepräsentationen, um die räumlichen Schlussfolgerungsfähigkeiten erheblich zu verbessern. Zusätzlich nutzen wir Wissensdistillation, um die generierten Begründungen in kompakte latente Einbettungen zu komprimieren, die eine ressourceneffiziente und Plug-and-Play-Integration in bestehende VLMs ohne erneutes Training ermöglichen. Um eine umfassende Bewertung zu ermöglichen, führen wir einen neuen Datensatz namens SSR-CoT ein, einen millionenfachen visuell-sprachlichen Schlussfolgerungsdatensatz, der mit Zwischenannotationen zur räumlichen Schlussfolgerung angereichert ist, und präsentieren SSRBench, einen umfassenden Multi-Task-Benchmark. Umfangreiche Experimente auf mehreren Benchmarks zeigen, dass SSR die Tiefennutzung erheblich verbessert und die räumliche Schlussfolgerung fördert, wodurch VLMs in Richtung eines menschenähnlicheren multimodalen Verständnisses vorangetrieben werden. Unsere Projektseite finden Sie unter https://yliu-cs.github.io/SSR.
English
Despite impressive advancements in Visual-Language Models (VLMs) for multi-modal tasks, their reliance on RGB inputs limits precise spatial understanding. Existing methods for integrating spatial cues, such as point clouds or depth, either require specialized sensors or fail to effectively exploit depth information for higher-order reasoning. To this end, we propose a novel Spatial Sense and Reasoning method, dubbed SSR, a novel framework that transforms raw depth data into structured, interpretable textual rationales. These textual rationales serve as meaningful intermediate representations to significantly enhance spatial reasoning capabilities. Additionally, we leverage knowledge distillation to compress the generated rationales into compact latent embeddings, which facilitate resource-efficient and plug-and-play integration into existing VLMs without retraining. To enable comprehensive evaluation, we introduce a new dataset named SSR-CoT, a million-scale visual-language reasoning dataset enriched with intermediate spatial reasoning annotations, and present SSRBench, a comprehensive multi-task benchmark. Extensive experiments on multiple benchmarks demonstrate SSR substantially improves depth utilization and enhances spatial reasoning, thereby advancing VLMs toward more human-like multi-modal understanding. Our project page is at https://yliu-cs.github.io/SSR.

Summary

AI-Generated Summary

PDF71May 21, 2025