ChatPaper.aiChatPaper

SciMaster : Vers des agents d’IA scientifiques polyvalents, Partie I. X-Master comme fondation : Pouvons-nous exceller au dernier examen de l’humanité ?

SciMaster: Towards General-Purpose Scientific AI Agents, Part I. X-Master as Foundation: Can We Lead on Humanity's Last Exam?

July 7, 2025
papers.authors: Jingyi Chai, Shuo Tang, Rui Ye, Yuwen Du, Xinyu Zhu, Mengcheng Zhou, Yanfeng Wang, Weinan E, Yuzhi Zhang, Linfeng Zhang, Siheng Chen
cs.AI

papers.abstract

Les avancées rapides des agents d'intelligence artificielle ont ravivé l'ambition de longue date de les exploiter pour accélérer les découvertes scientifiques. Atteindre cet objectif nécessite une compréhension approfondie des frontières du savoir humain. À cet égard, l'« Examen Final de l'Humanité » (HLE) constitue une pierre de touche exceptionnellement exigeante pour évaluer les agents scientifiques d'IA. Dans ce travail, nous visons à construire l'architecture de base pour des agents à usage général et à valider leurs capacités grâce à des performances de pointe sur le HLE. Pour y parvenir, nous introduisons X-Master, un agent de raisonnement augmenté par des outils, conçu pour imiter les chercheurs humains en interagissant de manière flexible avec des outils externes durant son processus de raisonnement. Cet agent, guidé par la conceptualisation du code comme langage d'interaction, peut exploiter de manière flexible les bibliothèques Python intégrées et nos outils personnalisés pour enrichir le raisonnement. Nous amplifions ses capacités grâce à X-Masters, un flux de travail agentique dispersé et empilé qui améliore systématiquement l'étendue et la profondeur du raisonnement. Notre solution open-source, X-Masters, établit un nouveau record de pointe sur le HLE avec un score de 32,1 %, surpassant les résultats de la Recherche Profonde d'OpenAI et de Google (26,6 % et 26,9 %) et devenant la première à franchir le seuil des 30 %. Ce travail nous permet d'approfondir notre compréhension de la résolution de tâches complexes et d'accumuler une expérience précieuse qui peut éclairer les progrès futurs, guidant ainsi l'entraînement des modèles ultérieurs.
English
The rapid advancements of AI agents have ignited the long-held ambition of leveraging them to accelerate scientific discovery. Achieving this goal requires a deep understanding of the frontiers of human knowledge. As such, Humanity's Last Exam (HLE) provides an exceptionally challenging touchstone for evaluating scientific AI agents. In this work, we aim to construct the foundational architecture for general-purpose agents and validate the capabilities through leading performance on HLE. To achieve this, we introduce X-Master, a tool-augmented reasoning agent designed to emulate human researchers by interacting flexibly with external tools during its reasoning process. This agent, guided by the conceptualization of code as an interaction language, can flexibly leverage built-in Python libraries and our customized tools to augment the reasoning. We further scale its capabilities through X-Masters, a scattered-and-stacked agentic workflow that systematically enhances breadth and depth of reasoning. Our open-source solution, X-Masters, sets a new state-of-the-art record on HLE with a score of 32.1%, surpassing OpenAI's and Google's Deep Research (26.6% and 26.9%) and becoming the first to exceed the 30% threshold. This work allows us to gain a deeper understanding of complex task-solving and accumulates valuable experience that can inform future advancements, guiding subsequent model training.
PDF21July 11, 2025