ChatPaper.aiChatPaper

IR3D-Bench: Оценка понимания сцены моделями "визуальный язык" как агентного обратного рендеринга

IR3D-Bench: Evaluating Vision-Language Model Scene Understanding as Agentic Inverse Rendering

June 29, 2025
Авторы: Parker Liu, Chenxin Li, Zhengxin Li, Yipeng Wu, Wuyang Li, Zhiqin Yang, Zhenyuan Zhang, Yunlong Lin, Sirui Han, Brandon Y. Feng
cs.AI

Аннотация

Модели, работающие с визуальными и языковыми данными (Vision-Language Models, VLMs), преуспевают в описательных задачах, однако остается неясным, действительно ли они понимают сцены на основе визуальных наблюдений. Мы представляем IR3D-Bench — эталонный тест, который бросает вызов VLMs, требуя от них продемонстрировать понимание через активное создание, а не пассивное распознавание. Основанный на парадигме анализа через синтез, IR3D-Bench ставит перед агентами, работающими с визуальными и языковыми данными (Vision-Language Agents, VLAs), задачу активного использования инструментов программирования и визуализации для воссоздания базовой 3D-структуры входного изображения, достигая агентного обратного рендеринга через использование инструментов. Этот подход "понимание через создание" исследует генеративные способности VLAs, связанные с использованием инструментов, выходя за рамки описательных или диалоговых возможностей, измеряемых традиционными тестами на понимание сцен. Мы предлагаем комплексный набор метрик для оценки геометрической точности, пространственных отношений, атрибутов внешнего вида и общей правдоподобности. Первоначальные эксперименты по агентному обратному рендерингу, основанному на различных современных VLMs, выявляют текущие ограничения, особенно в визуальной точности, а не в базовом использовании инструментов. IR3D-Bench, включая данные и протоколы оценки, публикуется для содействия систематическому изучению и разработке VLAs, использующих инструменты, с целью достижения подлинного понимания сцен через создание.
English
Vision-language models (VLMs) excel at descriptive tasks, but whether they truly understand scenes from visual observations remains uncertain. We introduce IR3D-Bench, a benchmark challenging VLMs to demonstrate understanding through active creation rather than passive recognition. Grounded in the analysis-by-synthesis paradigm, IR3D-Bench tasks Vision-Language Agents (VLAs) with actively using programming and rendering tools to recreate the underlying 3D structure of an input image, achieving agentic inverse rendering through tool use. This "understanding-by-creating" approach probes the tool-using generative capacity of VLAs, moving beyond the descriptive or conversational capacity measured by traditional scene understanding benchmarks. We provide a comprehensive suite of metrics to evaluate geometric accuracy, spatial relations, appearance attributes, and overall plausibility. Initial experiments on agentic inverse rendering powered by various state-of-the-art VLMs highlight current limitations, particularly in visual precision rather than basic tool usage. IR3D-Bench, including data and evaluation protocols, is released to facilitate systematic study and development of tool-using VLAs towards genuine scene understanding by creating.
PDF51July 2, 2025