ChatPaper.aiChatPaper

DeepPHY : Évaluation des modèles de langage visuel agentiques sur le raisonnement physique

DeepPHY: Benchmarking Agentic VLMs on Physical Reasoning

August 7, 2025
papers.authors: Xinrun Xu, Pi Bu, Ye Wang, Börje F. Karlsson, Ziming Wang, Tengtao Song, Qi Zhu, Jun Song, Zhiming Ding, Bo Zheng
cs.AI

papers.abstract

Bien que les modèles de langage visuel (VLMs) démontrent de solides capacités perceptuelles et un raisonnement visuel impressionnant, ils éprouvent des difficultés à accorder une attention aux détails et à planifier des actions précises dans des environnements complexes et dynamiques, ce qui entraîne des performances médiocres. Les tâches du monde réel nécessitent généralement des interactions complexes, un raisonnement spatial avancé, une planification à long terme et un affinement continu des stratégies, exigeant souvent une compréhension des règles physiques du scénario cible. Cependant, évaluer ces capacités dans des scénarios réels est souvent prohibitivement coûteux. Pour combler cette lacune, nous présentons DeepPHY, un cadre de référence novateur conçu pour évaluer systématiquement la compréhension et le raisonnement des VLMs sur les principes physiques fondamentaux à travers une série d'environnements simulés exigeants. DeepPHY intègre plusieurs environnements de raisonnement physique de niveaux de difficulté variés et incorpore des métriques d'évaluation fines. Notre évaluation révèle que même les VLMs les plus avancés peinent à traduire des connaissances physiques descriptives en un contrôle prédictif précis.
English
Although Vision Language Models (VLMs) exhibit strong perceptual abilities and impressive visual reasoning, they struggle with attention to detail and precise action planning in complex, dynamic environments, leading to subpar performance. Real-world tasks typically require complex interactions, advanced spatial reasoning, long-term planning, and continuous strategy refinement, usually necessitating understanding the physics rules of the target scenario. However, evaluating these capabilities in real-world scenarios is often prohibitively expensive. To bridge this gap, we introduce DeepPHY, a novel benchmark framework designed to systematically evaluate VLMs' understanding and reasoning about fundamental physical principles through a series of challenging simulated environments. DeepPHY integrates multiple physical reasoning environments of varying difficulty levels and incorporates fine-grained evaluation metrics. Our evaluation finds that even state-of-the-art VLMs struggle to translate descriptive physical knowledge into precise, predictive control.
PDF612August 8, 2025