ChatPaper.aiChatPaper

Alita: Generalistischer Agent, der skalierbares agentenbasiertes Denken mit minimaler Vordefinition und maximaler Selbstentwicklung ermöglicht

Alita: Generalist Agent Enabling Scalable Agentic Reasoning with Minimal Predefinition and Maximal Self-Evolution

May 26, 2025
Autoren: Jiahao Qiu, Xuan Qi, Tongcheng Zhang, Xinzhe Juan, Jiacheng Guo, Yifu Lu, Yimin Wang, Zixin Yao, Qihan Ren, Xun Jiang, Xing Zhou, Dongrui Liu, Ling Yang, Yue Wu, Kaixuan Huang, Shilong Liu, Hongru Wang, Mengdi Wang
cs.AI

Zusammenfassung

Jüngste Fortschritte bei großen Sprachmodellen (LLMs) haben es Agenten ermöglicht, komplexe, offene Aufgaben autonom auszuführen. Viele bestehende Frameworks sind jedoch stark auf manuell vordefinierte Werkzeuge und Arbeitsabläufe angewiesen, was ihre Anpassungsfähigkeit, Skalierbarkeit und Generalisierung über verschiedene Domänen hinweg behindert. In dieser Arbeit stellen wir Alita vor – einen Generalisten-Agenten, der nach dem Prinzip „Einfachheit ist die höchste Form der Raffinesse“ entwickelt wurde und skalierbares agentisches Denken durch minimale Vordefinition und maximale Selbstentwicklung ermöglicht. Für die minimale Vordefinition ist Alita mit nur einer Komponente zur direkten Problemlösung ausgestattet, was ihn wesentlich einfacher und übersichtlicher macht als bisherige Ansätze, die stark auf handgefertigte, aufwendige Werkzeuge und Arbeitsabläufe angewiesen waren. Dieses klare Design erhöht sein Potenzial, sich auf herausfordernde Fragen zu verallgemeinern, ohne durch Werkzeuge eingeschränkt zu werden. Für die maximale Selbstentwicklung ermöglichen wir die Kreativität von Alita, indem wir eine Reihe von universellen Komponenten bereitstellen, um externe Fähigkeiten autonom zu konstruieren, zu verfeinern und wiederzuverwenden, indem wir aufgabenbezogene Modellkontextprotokolle (MCPs) aus Open Source generieren, was zu skalierbarem agentischem Denken beiträgt. Bemerkenswerterweise erreicht Alita eine Genauigkeit von 75,15 % pass@1 und 87,27 % pass@3, was ihn unter den Generalisten-Agenten an der Spitze platziert, auf dem GAIA-Benchmark-Validierungsdatensatz, sowie 74,00 % und 52,00 % pass@1 auf Mathvista und PathVQA, womit er viele Agentensysteme mit weitaus größerer Komplexität übertrifft. Weitere Details werden unter https://github.com/CharlesQ9/Alita aktualisiert.
English
Recent advances in large language models (LLMs) have enabled agents to autonomously perform complex, open-ended tasks. However, many existing frameworks depend heavily on manually predefined tools and workflows, which hinder their adaptability, scalability, and generalization across domains. In this work, we introduce Alita--a generalist agent designed with the principle of "Simplicity is the ultimate sophistication," enabling scalable agentic reasoning through minimal predefinition and maximal self-evolution. For minimal predefinition, Alita is equipped with only one component for direct problem-solving, making it much simpler and neater than previous approaches that relied heavily on hand-crafted, elaborate tools and workflows. This clean design enhances its potential to generalize to challenging questions, without being limited by tools. For Maximal self-evolution, we enable the creativity of Alita by providing a suite of general-purpose components to autonomously construct, refine, and reuse external capabilities by generating task-related model context protocols (MCPs) from open source, which contributes to scalable agentic reasoning. Notably, Alita achieves 75.15% pass@1 and 87.27% pass@3 accuracy, which is top-ranking among general-purpose agents, on the GAIA benchmark validation dataset, 74.00% and 52.00% pass@1, respectively, on Mathvista and PathVQA, outperforming many agent systems with far greater complexity. More details will be updated at https://github.com/CharlesQ9/Alita{https://github.com/CharlesQ9/Alita}.

Summary

AI-Generated Summary

PDF64May 28, 2025