ChatPaper.aiChatPaper

TIR-Bench: Un Benchmark Completo per il Ragionamento Agente con Pensiero per Immagini

TIR-Bench: A Comprehensive Benchmark for Agentic Thinking-with-Images Reasoning

November 3, 2025
Autori: Ming Li, Jike Zhong, Shitian Zhao, Haoquan Zhang, Shaoheng Lin, Yuxiang Lai, Wei Chen, Konstantinos Psounis, Kaipeng Zhang
cs.AI

Abstract

La frontiera del ragionamento visivo si sta spostando verso modelli come OpenAI o3, in grado di creare e utilizzare strumenti in modo intelligente per trasformare le immagini ai fini della risoluzione di problemi, noto anche come "pensare-con-immagini" all'interno di una catena di ragionamento. Tuttavia, gli attuali benchmark non riescono a cogliere appieno questa capacità avanzata. Persino Visual Search, il benchmark più comune per i metodi di pensiero-con-immagini attuali, testa solo operazioni di base come la localizzazione e il ritaglio, offrendo poca informazione su ragionamenti più complessi, dinamici e dipendenti dall'uso di strumenti. Presentiamo TIR-Bench, un benchmark completo per valutare il pensiero-con-immagini agentico attraverso 13 task diversificati, ciascuno dei quali richiede l'uso innovativo di strumenti per l'elaborazione e la manipolazione delle immagini all'interno di una catena di ragionamento. Valutiamo 22 modelli linguistici multimodali di grandi dimensioni (MLLM), dai principali modelli open-source e proprietari a quelli dotati di esplicita aumentazione per l'uso di strumenti. I risultati mostrano che TIR-Bench è universalmente impegnativo e che prestazioni solide richiedono autentiche capacità di pensiero-con-immagini. Infine, presentiamo uno studio pilota che confronta il fine-tuning diretto con quello agentico.
English
The frontier of visual reasoning is shifting toward models like OpenAI o3, which can intelligently create and operate tools to transform images for problem-solving, also known as thinking-with-images in chain-of-thought. Yet existing benchmarks fail to fully capture this advanced capability. Even Visual Search, the most common benchmark for current thinking-with-images methods, tests only basic operations such as localization and cropping, offering little insight into more complex, dynamic, and tool-dependent reasoning. We introduce TIR-Bench, a comprehensive benchmark for evaluating agentic thinking-with-images across 13 diverse tasks, each requiring novel tool use for image processing and manipulation in chain-of-thought. We evaluate 22 multimodal large language models (MLLMs), from leading open-sourced and proprietary models to those with explicit tool-use augmentation. Results show that TIR-Bench is universally challenging, and strong performance requires genuine thinking-with-images capabilities. Finally, we present a pilot study comparing direct versus agentic fine-tuning.
PDF151December 2, 2025