ChatPaper.aiChatPaper

Au-delà des outils statiques : l'évolution des outils en temps réel pour le raisonnement scientifique

Beyond Static Tools: Test-Time Tool Evolution for Scientific Reasoning

January 12, 2026
papers.authors: Jiaxuan Lu, Ziyu Kong, Yemin Wang, Rong Fu, Haiyuan Wan, Cheng Yang, Wenjie Lou, Haoran Sun, Lilong Wang, Yankai Jiang, Xiaosong Wang, Xiao Sun, Dongzhan Zhou
cs.AI

papers.abstract

Le défi central de l'IA pour la Science ne réside pas uniquement dans le raisonnement, mais dans la capacité à créer des méthodes computationnelles dans un monde scientifique ouvert. Les agents actuels basés sur les LLM s'appuient sur des bibliothèques d'outils statiques et prédéfinies, un paradigme qui échoue fondamentalement dans les domaines scientifiques où les outils sont rares, hétérogènes et intrinsèquement incomplets. Dans cet article, nous proposons l'Évolution d'Outils en Temps de Test (TTE), un nouveau paradigme qui permet aux agents de synthétiser, vérifier et faire évoluer des outils exécutables durant l'inférence. En transformant les outils de ressources fixes en artefacts pilotés par les problèmes, le TTE surmonte la rigidité et les limitations de la traîne longue des bibliothèques d'outils statiques. Pour faciliter une évaluation rigoureuse, nous présentons SciEvo, un benchmark comprenant 1 590 tâches de raisonnement scientifique soutenues par 925 outils évolués automatiquement. Des expériences approfondies montrent que le TTE atteint des performances de pointe en matière de précision et d'efficacité des outils, tout en permettant une adaptation transdomaine efficace des outils computationnels. Le code et le benchmark ont été publiés à l'adresse https://github.com/lujiaxuan0520/Test-Time-Tool-Evol.
English
The central challenge of AI for Science is not reasoning alone, but the ability to create computational methods in an open-ended scientific world. Existing LLM-based agents rely on static, pre-defined tool libraries, a paradigm that fundamentally fails in scientific domains where tools are sparse, heterogeneous, and intrinsically incomplete. In this paper, we propose Test-Time Tool Evolution (TTE), a new paradigm that enables agents to synthesize, verify, and evolve executable tools during inference. By transforming tools from fixed resources into problem-driven artifacts, TTE overcomes the rigidity and long-tail limitations of static tool libraries. To facilitate rigorous evaluation, we introduce SciEvo, a benchmark comprising 1,590 scientific reasoning tasks supported by 925 automatically evolved tools. Extensive experiments show that TTE achieves state-of-the-art performance in both accuracy and tool efficiency, while enabling effective cross-domain adaptation of computational tools. The code and benchmark have been released at https://github.com/lujiaxuan0520/Test-Time-Tool-Evol.
PDF351January 17, 2026