ChatPaper.aiChatPaper

PyVision : Vision agentique avec outils dynamiques

PyVision: Agentic Vision with Dynamic Tooling

July 10, 2025
papers.authors: Shitian Zhao, Haoquan Zhang, Shaoheng Lin, Ming Li, Qilong Wu, Kaipeng Zhang, Chen Wei
cs.AI

papers.abstract

Les LLM (modèles de langage de grande taille) sont de plus en plus déployés en tant qu'agents, des systèmes capables de planifier, de raisonner et d'appeler dynamiquement des outils externes. Cependant, dans le domaine du raisonnement visuel, les approches précédentes restent largement limitées par des workflows prédéfinis et des ensembles d'outils statiques. Dans ce rapport, nous présentons PyVision, un cadre interactif et multi-tours qui permet aux MLLM (modèles de langage multi-modaux) de générer, exécuter et affiner de manière autonome des outils basés sur Python, adaptés à la tâche en cours, ouvrant ainsi la voie à une résolution de problèmes flexible et interprétable. Nous développons une taxonomie des outils créés par PyVision et analysons leur utilisation à travers un ensemble diversifié de benchmarks. Quantitativement, PyVision obtient des gains de performance constants, améliorant GPT-4.1 de +7,8 % sur V* et Claude-4.0-Sonnet de +31,1 % sur VLMsAreBlind-mini. Ces résultats indiquent un changement plus large : l'outillage dynamique permet aux modèles non seulement d'utiliser des outils, mais aussi de les inventer, progressant ainsi vers un raisonnement visuel plus agentique.
English
LLMs are increasingly deployed as agents, systems capable of planning, reasoning, and dynamically calling external tools. However, in visual reasoning, prior approaches largely remain limited by predefined workflows and static toolsets. In this report, we present PyVision, an interactive, multi-turn framework that enables MLLMs to autonomously generate, execute, and refine Python-based tools tailored to the task at hand, unlocking flexible and interpretable problem-solving. We develop a taxonomy of the tools created by PyVision and analyze their usage across a diverse set of benchmarks. Quantitatively, PyVision achieves consistent performance gains, boosting GPT-4.1 by +7.8% on V* and Claude-4.0-Sonnet by +31.1% on VLMsAreBlind-mini. These results point to a broader shift: dynamic tooling allows models not just to use tools, but to invent them, advancing toward more agentic visual reasoning.
PDF312July 11, 2025