ChatPaper.aiChatPaper

SSR: Migliorare la percezione della profondità nei modelli visione-linguaggio tramite ragionamento spaziale guidato da motivazioni razionali

SSR: Enhancing Depth Perception in Vision-Language Models via Rationale-Guided Spatial Reasoning

May 18, 2025
Autori: Yang Liu, Ming Ma, Xiaomin Yu, Pengxiang Ding, Han Zhao, Mingyang Sun, Siteng Huang, Donglin Wang
cs.AI

Abstract

Nonostante i notevoli progressi nei Modelli Visivo-Linguistici (VLMs) per compiti multi-modali, la loro dipendenza da input RGB limita una comprensione spaziale precisa. I metodi esistenti per integrare indicazioni spaziali, come nuvole di punti o profondità, richiedono sensori specializzati o non riescono a sfruttare efficacemente le informazioni di profondità per ragionamenti di ordine superiore. A tal fine, proponiamo un nuovo metodo chiamato Spatial Sense and Reasoning (SSR), un framework innovativo che trasforma i dati grezzi di profondità in razionalità testuali strutturate e interpretabili. Queste razionalità testuali fungono da rappresentazioni intermedie significative per migliorare notevolmente le capacità di ragionamento spaziale. Inoltre, sfruttiamo la distillazione della conoscenza per comprimere le razionalità generate in embedding latenti compatti, che facilitano un'integrazione efficiente in termini di risorse e plug-and-play nei VLMs esistenti senza necessità di riaddestramento. Per consentire una valutazione completa, introduciamo un nuovo dataset denominato SSR-CoT, un dataset di ragionamento visivo-linguistico su larga scala arricchito con annotazioni intermedie di ragionamento spaziale, e presentiamo SSRBench, un benchmark multi-task completo. Esperimenti estesi su più benchmark dimostrano che SSR migliora sostanzialmente l'utilizzo della profondità e potenzia il ragionamento spaziale, avvicinando così i VLMs a una comprensione multi-modale più simile a quella umana. La nostra pagina del progetto è disponibile all'indirizzo https://yliu-cs.github.io/SSR.
English
Despite impressive advancements in Visual-Language Models (VLMs) for multi-modal tasks, their reliance on RGB inputs limits precise spatial understanding. Existing methods for integrating spatial cues, such as point clouds or depth, either require specialized sensors or fail to effectively exploit depth information for higher-order reasoning. To this end, we propose a novel Spatial Sense and Reasoning method, dubbed SSR, a novel framework that transforms raw depth data into structured, interpretable textual rationales. These textual rationales serve as meaningful intermediate representations to significantly enhance spatial reasoning capabilities. Additionally, we leverage knowledge distillation to compress the generated rationales into compact latent embeddings, which facilitate resource-efficient and plug-and-play integration into existing VLMs without retraining. To enable comprehensive evaluation, we introduce a new dataset named SSR-CoT, a million-scale visual-language reasoning dataset enriched with intermediate spatial reasoning annotations, and present SSRBench, a comprehensive multi-task benchmark. Extensive experiments on multiple benchmarks demonstrate SSR substantially improves depth utilization and enhances spatial reasoning, thereby advancing VLMs toward more human-like multi-modal understanding. Our project page is at https://yliu-cs.github.io/SSR.
PDF102May 21, 2025