ChatPaper.aiChatPaper

IR3D-Bench: Bewertung des Szenenverständnisses von Vision-Sprach-Modellen als agentenbasiertes inverses Rendering

IR3D-Bench: Evaluating Vision-Language Model Scene Understanding as Agentic Inverse Rendering

June 29, 2025
Autoren: Parker Liu, Chenxin Li, Zhengxin Li, Yipeng Wu, Wuyang Li, Zhiqin Yang, Zhenyuan Zhang, Yunlong Lin, Sirui Han, Brandon Y. Feng
cs.AI

Zusammenfassung

Vision-Language-Modelle (VLMs) glänzen bei beschreibenden Aufgaben, doch ob sie Szenen aus visuellen Beobachtungen wirklich verstehen, bleibt ungewiss. Wir stellen IR3D-Bench vor, einen Benchmark, der VLMs herausfordert, Verständnis durch aktives Erschaffen statt passives Erkennen unter Beweis zu stellen. Basierend auf dem Analyse-durch-Synthese-Paradigma fordert IR3D-Bench Vision-Language-Agenten (VLAs) auf, aktiv Programmier- und Rendering-Tools zu nutzen, um die zugrunde liegende 3D-Struktur eines Eingabebildes nachzubilden und so agentenbasiertes inverses Rendering durch Werkzeugnutzung zu erreichen. Dieser „Verstehen-durch-Erschaffen“-Ansatz untersucht die werkzeugnutzende generative Fähigkeit von VLAs und geht über die beschreibende oder konversationelle Kapazität hinaus, die traditionelle Szenenverständnis-Benchmarks messen. Wir bieten eine umfassende Suite von Metriken zur Bewertung geometrischer Genauigkeit, räumlicher Beziehungen, Erscheinungsattribute und der Gesamtplausibilität. Erste Experimente zum agentenbasierten inversen Rendering, unterstützt durch verschiedene state-of-the-art VLMs, verdeutlichen aktuelle Grenzen, insbesondere in der visuellen Präzision und nicht in der grundlegenden Werkzeugnutzung. IR3D-Bench, einschließlich Daten und Evaluationsprotokolle, wird veröffentlicht, um die systematische Erforschung und Entwicklung werkzeugnutzender VLAs hin zu echtem Szenenverständnis durch Erschaffen zu fördern.
English
Vision-language models (VLMs) excel at descriptive tasks, but whether they truly understand scenes from visual observations remains uncertain. We introduce IR3D-Bench, a benchmark challenging VLMs to demonstrate understanding through active creation rather than passive recognition. Grounded in the analysis-by-synthesis paradigm, IR3D-Bench tasks Vision-Language Agents (VLAs) with actively using programming and rendering tools to recreate the underlying 3D structure of an input image, achieving agentic inverse rendering through tool use. This "understanding-by-creating" approach probes the tool-using generative capacity of VLAs, moving beyond the descriptive or conversational capacity measured by traditional scene understanding benchmarks. We provide a comprehensive suite of metrics to evaluate geometric accuracy, spatial relations, appearance attributes, and overall plausibility. Initial experiments on agentic inverse rendering powered by various state-of-the-art VLMs highlight current limitations, particularly in visual precision rather than basic tool usage. IR3D-Bench, including data and evaluation protocols, is released to facilitate systematic study and development of tool-using VLAs towards genuine scene understanding by creating.
PDF51July 2, 2025