ChatPaper.aiChatPaper

Alita: Generalist Agent die schaalbare agentische redenering mogelijk maakt met minimale voorafbepaalde definities en maximale zelfevolutie

Alita: Generalist Agent Enabling Scalable Agentic Reasoning with Minimal Predefinition and Maximal Self-Evolution

May 26, 2025
Auteurs: Jiahao Qiu, Xuan Qi, Tongcheng Zhang, Xinzhe Juan, Jiacheng Guo, Yifu Lu, Yimin Wang, Zixin Yao, Qihan Ren, Xun Jiang, Xing Zhou, Dongrui Liu, Ling Yang, Yue Wu, Kaixuan Huang, Shilong Liu, Hongru Wang, Mengdi Wang
cs.AI

Samenvatting

Recente ontwikkelingen in grote taalmodellen (LLMs) hebben het mogelijk gemaakt dat agents autonoom complexe, open-einde taken kunnen uitvoeren. Veel bestaande frameworks zijn echter sterk afhankelijk van handmatig vooraf gedefinieerde tools en workflows, wat hun aanpasbaarheid, schaalbaarheid en generalisatie over domeinen belemmert. In dit werk introduceren we Alita—een generalistische agent ontworpen volgens het principe "Eenvoud is de ultieme verfijning," die schaalbare agentische redenering mogelijk maakt door minimale voorafdefinitie en maximale zelf-evolutie. Voor minimale voorafdefinitie is Alita uitgerust met slechts één component voor directe probleemoplossing, wat het veel eenvoudiger en overzichtelijker maakt dan eerdere benaderingen die sterk leunden op handgemaakte, uitgebreide tools en workflows. Dit schone ontwerp vergroot het potentieel om uitdagende vragen te generaliseren, zonder beperkt te worden door tools. Voor maximale zelf-evolutie stimuleren we de creativiteit van Alita door een reeks algemene componenten te bieden om autonoom externe capaciteiten te construeren, verfijnen en hergebruiken door taakgerelateerde model contextprotocollen (MCPs) te genereren uit open source, wat bijdraagt aan schaalbare agentische redenering. Opvallend is dat Alita een nauwkeurigheid van 75,15% pass@1 en 87,27% pass@3 behaalt, wat tot de top behoort onder generalistische agents, op de GAIA benchmark validatiedataset, en respectievelijk 74,00% en 52,00% pass@1 op Mathvista en PathVQA, waarmee het veel agentsystemen met aanzienlijk grotere complexiteit overtreft. Meer details zullen worden bijgewerkt op https://github.com/CharlesQ9/Alita{https://github.com/CharlesQ9/Alita}.
English
Recent advances in large language models (LLMs) have enabled agents to autonomously perform complex, open-ended tasks. However, many existing frameworks depend heavily on manually predefined tools and workflows, which hinder their adaptability, scalability, and generalization across domains. In this work, we introduce Alita--a generalist agent designed with the principle of "Simplicity is the ultimate sophistication," enabling scalable agentic reasoning through minimal predefinition and maximal self-evolution. For minimal predefinition, Alita is equipped with only one component for direct problem-solving, making it much simpler and neater than previous approaches that relied heavily on hand-crafted, elaborate tools and workflows. This clean design enhances its potential to generalize to challenging questions, without being limited by tools. For Maximal self-evolution, we enable the creativity of Alita by providing a suite of general-purpose components to autonomously construct, refine, and reuse external capabilities by generating task-related model context protocols (MCPs) from open source, which contributes to scalable agentic reasoning. Notably, Alita achieves 75.15% pass@1 and 87.27% pass@3 accuracy, which is top-ranking among general-purpose agents, on the GAIA benchmark validation dataset, 74.00% and 52.00% pass@1, respectively, on Mathvista and PathVQA, outperforming many agent systems with far greater complexity. More details will be updated at https://github.com/CharlesQ9/Alita{https://github.com/CharlesQ9/Alita}.
PDF74May 28, 2025